martes, 24 de marzo de 2009

PERIFERICOS

Ahi diferentes tipos de perifericos como por ejemplo la pantalla,el teclado,el raton,la web cam....etc.
TECLADO:
Los teclados son similares a los de una máquina de escribir, correspondiendo cada tecla a uno o varios caracteres, funciones u órdenes. Para seleccionar uno de los caracteres de una tecla puede ser necesario pulsar simultáneamente dos o más teclas, una de ellas la correspondiente al carácter. Al pulsar una tecla se cierra un conmutador que hay en el interior del teclado, esto hace que unos circuitos codificadores generen el código de E/S correspondiente al carácter seleccionado, apareciendo éste en la pantalla si no es un carácter de control. Los teclados contienen los siguientes tipos de teclas:
Teclado principal: Contiene los caracteres alfabéticos, numéricos y especiales, como en una máquina de escribir convencional con alguno adicional. Hay teclados que también incluyen aquí caracteres gráficos.
Teclas de desplazamiento del cursor: Permiten desplazar el cursor a izquierda, derecha, arriba y abajo, borrar un carácter o parte de una línea.
Teclado numérico: Es habitual en los teclados de ordenador que las teclas correspondientes a los caracteres numéricos (cifras decimales), signos de operaciones básicas (+, -, ...) y punto decimal estén repetidas para facilitar al usuario la introducción de datos numéricos.
Teclas de funciones: Son teclas cuyas funciones son definibles por el usuario o por un programa.
Teclas de funciones locales: Controlan funciones propias del terminal, como impresión del contenido de imágen cuando el ordenador está conectada a una impresora.
En algunos teclados la transmisión no se efectúa pulsación a pulsación sino que se dispone de un almacén de reserva o buffer (tampón) y el envío se efectúa a la vez para todo un conjunto de mensajes completos cuando el usuario pulsa una tecla especial destinada a activar dicha transmisión. Esta tecla recibe distintos nombres como Return, Enter, Transmit, Intro, Retorno de carro. Entre las posibles características técnicas a contemplar a la hora de evaluar la mejor o peor adaptabilidad de un teclado a nuestras necesidades, podemos citar el número de caracteres y símbolos básicos, sensibilidad a la pulsación, tipo de contactos de las teclas (membrana o mecánico), peso, tamaño, transportabilidad. Actualmente se comercializan teclados ergonómicos, con una disposición algo original, aunque se han difundido poco, y hay discusiones sobre si es cierta la ergonomía que propugnan. Se pueden encontara teclados con funcionalidades extras, ya sean individualmente o en conjunto, como lector de banda magnética, lector/grabador de tarjeta inteligente, conexión para escaner, detector biométrico, entre otras posibilidades. Para aplicaciones industriales existen teclados totalmente sellados que soportan ambientes agresivos, como por ejemplo aire, agua y atmósferas de vapores. Cumplen con la normativa IP65.

RATON:El ratón es un pequeño periférico que está constituido por una bola que puede girar libremente, y se acciona haciéndola rodar sobre una superficie plana. En el momento de activar el ratón, se asocia su posición con la del cursor en la pantalla. Si desplazamos sobre una superficie el ratón, el cursor seguirá dichos movimientos. Es muy empleado en aplicaciones dirigidas por menús o entornos gráficos, ya que con un pulsador en cualquier instante se pueden obtener en programa las coordenadas (x,y) donde se encuentra el cursor en la pantalla, seleccionando de esta forma una de las opciones de un menú.Hay ratones que en vez de bola llevan un sistema de emisión óptico basado en un LED (diodo electroluminiscente) para determinar el posicionamiento mediante reflejo y captura en un sensor. Tienen ventajas sobre los habituales, por ejemplo que no necesitan alfombrilla y son más duraderos al no incluir un sistema mecánico. Los más modernos utilizan un rayo laser, siendo unas 20 veces más exactos que los de tecnología LEDUna variación del ratón es la conocida como "trackball", que consiste en una bola fija que se hace girar con los dedos. Presenta algunas ventajas sobre los ratones tradicionales. Dado que bajo los entornos de usuario gráficos actuales se emplea constantemente el ratón, se ha de seleccionar uno de muy buena calidad, pues sino duran sólo unos pocos meses.


MONITORES:Hasta hace poco tiempo el tipo más habitual de pantalla era la que vemos en los ordenadores de sobremesa, la de tubo de rayos catódicos (TRC), aunque cada vez se difunden más las de cristal líquido, habituales en los equipos portátiles.La imágen de una pantalla TRC se forma al incidir un haz de electrones sobre la superficie interna de la pantalla que está recubierta de un material fosforescente, analogamente a como se forman las imágenes en un televisor. Un campo electromagnético desplaza el haz de electrones de izquierda a derecha y de arriba a abajo y, dependiendo de la intensidad con la que inciden los electrones en la pantalla así de brillante será cada punto generado. La imágen, para ser visualizada durante un determinado tiempo debe ser repetida o refrescada periódicamente (al menos 25 veces por segundo). Estas pantallas se denominan pantallas de barrido. Una imágen de pantalla no es continua sino que se forma por multitud de puntos de imágen ("pixel"). La pantalla está dividida en celdas, en cada una de las cuales puede ir un carácter. La celda está constituida por una matriz regular de puntos de imágen. Las pantallas se clasifican, según la capacidad o no de mostrar colores, en:
Monocroma: Los colores usuales en una monocromática son el blanco, ámbar o verde.
Color: El color de cada punto se obtiene con mezcla (RGB) de los colores rojo, verde y azul, pudiéndose programar la intensidad de cada color básico.
Según su capacidad de representación se pueden clasificar en:
De caracteres: Sólo admiten caracteres de texto.
Gráficas: Permiten trazados de líneas y curvas continuas.
En las pantallas de caracteres, la memoria de imágen (que es específica o una parte de la memoria RAM) almacena la información correspondiente a cada celda (códigos de caracteres y sus atributos). En la memoria ROM están los patrones de los caracteres, representados como una matriz de puntos. Se denomina generador de caracteres a esta memoria de sólo lectura. En las pantallas gráficas el usuario tiene acceso al punto de imágen, pudiendo representar en ellas imágenes configuradas no sólo con las formas de caracteres incluidos en la ROM. En este caso, la memoria de imágen contiene la información correspondiente a cada punto de imágen (intensidad, color y otros posibles atributos), en vez de la correspondiente a cada celda. Los dibujos, a pesar de estar formados por puntos de imágen presentan una apariencia de líneas continuas. La calidad de la pantalla gráfica depende de la densidad de puntos de imágen. Los principales parámetros que caracterizan a una pantalla son:
Tamaño: Se da en función de la longitud de la diagonal principal, y se tiene la mala costumbre de darla en pulgadas. Las más habituales son las de 381 mm (15"), aunque en muchos países se están utilizando poniendo superiores.
Número de celdas o caracteres: Lo usual es una representación de 24 filas por 80 columnas de caracteres.
Resolución: Es el número de puntos de imágen en pantalla, no depende del tamaño de la pantalla. A lo largo de la historia de la informática las más usadas son (la resolución se daen puntos horizontales por verticales):
CGA 640*200HGC 720*350VGA 640*480XGA (SVGA)1024*768SXGA 1280*1024UXGA 1600*1200WUXGA 1920*1200WEBCAM:Las webcams hoy por hoy son uno de los recursos lúdicos más conocidos que nos proporciona internet. Con ellas es posible ver qué está ocurriendo en cualquier parte del mundo, la piscina de los Brown, a Samantha -una recien nacida, mientras duerme-, cómo nadan los peces tropicales de un acuario, el tiempo que hace en la Antártida y hasta se pudo ver la superficie del planeta Marte desde la famosa Pathfinder... y todo ello sentados delante del ordenador en nuestra habitación favorita. La fascinación que esto supone no se puede dejar de resaltar.
El funcionamiento de una webcam es muy simple: una cámara de vídeo toma imágenes y las pasa a un ordenador que las traduce a lenguaje binario y las envía a internet para disfrute de todo aquel que quiera verlas. Estos son los pasos:
A)Una cámara toma imágenes que envía regularmentre a un ordenador, algunas se actualizan cada pocos segundos y otras cada varias horas.
B)El ordenador mediante hardware/software adecuado traduce las imágenes a formato binario, generalmente ficheros jpeg, dada su buena relación calidad/tamaño.
C)Las imágenes ya traducidas son incluídas dentro de una dirección URL que proporciona la posibilidad de ser vistas en la WWW, de manera que está siempre disponible la imagen más reciente. Así, cuando alguién solicita la página de la webcam, puede ver en su navegador la última imagen.
D)Existen webcams cuyo ritmo de refresco es muy alto y pueden llegar a dar la sensación de transmitir imágenes de vídeo en directo. Sin embargo, son fotogramas sueltos que se actualizan normalmente al pulsar o pasar el ratón por el enlace.

martes, 17 de marzo de 2009

ESCANER

FUNCIONAMIENTO DE ESCANER:

El principio de funcionamiento de un escáner es el siguiente:

El escáner se mueve a lo largo del documento, línea por línea
Cada línea se divide en "puntos básicos", que corresponden a píxeles.
Un capturador analiza el color de cada píxel.
El color de cada píxel se divide en 3 componentes (rojo, verde, azul)
Cada componente de color se mide y se representa mediante un valor. En el caso de una cuantificación de 8 bits, cada componente tendrá un valor de entre 0 y 225 inclusive.

En el resto de este artículo se describirá específicamente el funcionamiento de un escáner plano, aunque el modo de funcionamiento del escáner manual y del escáner con alimentador de documentos es exactamente el mismo. La única diferencia reside en la alimentación del documento.

El escáner plano dispone de una ranura iluminada con motor, la cual escanea el documento línea por línea bajo un panel de vidrio transparente sobre el cual se coloca el documento, con la cara que se escaneará hacia abajo.

La luz de alta intensidad emitida se refleja en el documento y converge hacia una serie de capturadores, mediante un sistema de lentes y espejos. Los capturadores convierten las intensidades de luz recibidas en señales eléctricas, las cuales a su vez son convertidas en información digital, gracias a un conversor analógico-digital.

Existen dos categorías de capturadores:

Los capturadores CMOS (Semiconductor Complementario de Óxido Metálico), o MOS Complementario). Dichos capturadores se conocen como tecnología CIS (de Sensor de Imagen por Contacto). Este tipo de dispositivo se vale de una rampa LED (Diodo Emisor de Luz) para iluminar el documento, y requiere de una distancia muy corta entre los capturadores y el documento. La tecnología CIS, sin embargo, utiliza mucha menos energía.

Escáners planos:Los escáners más utilizados son los "Planos" o de sobremesa. Se suelen utilizar para escanear imágenes o textos planos aunque sirven también para objetos tridimensionales.
Escáners domésticos:
generalmente tienen un área de lectura de dimensiones 22 por 28 cm. y una resolución real de escaneado entre 300 y 400 ppp. aunque mediante interpolación lleguen a resoluciones de hasta 1600 ppp. Suelen utilizar una profundidad de 8 bits por canal de color. Utilizan una conexión con el ordenador a través de un puerto serie.

Escáners Semi-profesionales Son prácticamente iguales a los anteriores, excepto en que su resolución real u óptica llega a 1200 ppp., consiguiéndose finalmente una resolución interpolada de hasta 2.600 ppp. Su profundidad de color sube hasta 10 bits. La conexión al PC suele ser a través de bus SCSI.
Escáners Profesionales. Son los escáners planos que compiten con los de tambor. Se distinguen de los Semi-profesionales en que tienen sistemas de eliminación de ruido electrónico, alto rango dinámico y mayores niveles de resolución.

Hewlett Packard Scanjet 4C

Escáners de transparencias:Aunque los escáneres planos tienen la opción de utilizar adaptadores de transparencias, existen aparatos especiales para este tipo de trabajos. Estos escáners permiten escanear varios formatos de película transparente, sea negativa, positiva, color o blanco y negro. Su tamaño de escaneado va desde el 35 mm. hasta placas de 9x12 cm. Los hay especiales para 35 mm. y Escáners multiformato que abarcan todas las medidas

Escaneado en un escáner de transparencias

Escáner de transparencias Nikon LS-20

Escaneado en un escáner plano

Digitalizadores de Video:
Actualmente las imágenes de video son utilizadas para componer documentos en aplicaciones informáticas. Por esa razón se crearon las tarjetas capturadoras de video o digitalizadoras. Desde el punto de vista de la captación, una cámara de video es como un escáner, ya que utiliza los CCD para captar la
imagen. Por otra parte , estas tarjetas pueden transformar una imagen electrónica analógica procedente de cualquier fuente de imágenes, tales como un videocassette, laserdisk, etc. mediante programas informáticos, hasta conseguir una imagen estática. La resolución de una imagen digitalizada dista mucho de ser comparable al resultado de un buen escáner. Ofrece una resolución de 640 x 480 pixels en total con un rango dinámico menor a 2.5.
Fotografía desde imagen de video

Escáners de mano:
Son muy utilizados por su manejabilidad y su bajo precio. Suelen conectarse al puerto de impresora del ordenador y otros modelos llevan su propia tarjeta para puerto ISA. Tienen poca resolución y hay que tener buen pulso para que la lectura sea correcta. Los mejores en este tipo dan una resolución máxima de 400 ppp. un área de escaneado de 9x12 cm. y una profundidad total de 24 bits. (8 por canal). Con este área de escaneado es posible realizar lecturas mayores, ya que el software que llevan estos modelos permite unir varias lecturas.

Escáner de mano "Suvil"

Escáners de Tambor:Estos escáners no utilizan el sistema de captación por CCDs sino que utilizan un sistema de tubos fotomultiplicadores (PMT) en el bloque lector

Profesionalmente se utilizan este tipo de máquinas para conseguir la mayor resolución. Esta puede llegar hasta 4.000 ppp en modo óptico. Puede reconocer originales opacos o transparentes y utiliza un cilindro de cristal donde se coloca el original. Un sistema de transmisión fotomecánico recorre la imagen punto por punto, obteniendo así una gran resolución y gama dinámica entre bajas y altas luces. Produce una imagen en colores primarios , pero ésta puede ser convertida en CMYK mientras el lector recorre la imagen.

IMPRESORAS (funcionamiento)

FUNCIONAMIENTO DE IMPRESORAS:
IMPRESORAS LASER: Una impresora láser es un tipo de impresora que permite imprimir texto o gráficos,tanto en negro como en color, con gran calidad. El dispositivo de impresión consta de un tambor fotoconductor unido a un depósito de tóner y un haz láser que es modulado y proyectado a través de un disco especular hacia el tambor fotoconductor. El giro del disco provoca un barrido del haz sobre la generatriz del tambor. Las zonas del tambor sobre las que incide el haz quedan ionizadas y, cuando esas zonas (mediante el giro del tambor) pasan por el depósito del tóner atráen el polvo ionizado de éste. Posteriormente el tambor entra en contacto con el papel, impregnando de polvo las zonas correspondientes. Para finalizar se fija la tinta al papel mediante una doble acción de presión y calor. Para la impresión láser monocromo se hace uso de un único tóner. Si la impresión es en color es necesario contar con cuatro (uno por cada color base, CMYK). Las impresoras láser permiten una impresión a nivel de página, con una calidad y velocidad bastante altas. En cuanto a los precios, principalmente debido al precio de los comsumibles, están ganando terreno a las impresoras de inyección de tinta. TONER:Un cartucho de toner es un conjunto de componentes (toner, tambor de impresión, etc) que mediante una fantástica sincronía con la impresora, realiza una rápida y exacta representación de una imágen electrónica.Tambien se considera como el principal integrante de una impresora láser, ya que al igual que el papel desempeña una participación fundamental en la impresión.El proceso inicia cuando la computadora envía la información a la impresora, siendo procesada por la tarjeta lógica quién inicia la sincronización de rodillos, mecanismo de cartucho, unidad láser etc.

TINTA: La tinta de la impesora es uno de los líquidos más caros para consumo popular más caros en el mundo, de hecho la tinta para impresora es más cara que la gasolina, la sangre humana, etc., cómo se muestra en este gráfico. Y es por todo esto que mucha gente prefiere comprar una impresora nueva que comprar nuevos cartuchos para la impresora que la mayoría de las veces cuestan casi lo mismo, además como era de esperarse, esta práctica de comprar impresoras nuevas muy a menudo constituye un gran impacto ambiental por toda la basura que se genera. Los métodos para ahorrar dinero en tinta son varios desde recargar cartuchos o comprar de marcas genéricas hasta la implementación de un sistema de tinta continua (Continuous Ink Supply System) que consiste en un sistema que te adapta unos depósitos de tinta externos que contienen entre 100 militros o 200 mililitros de tinta y que se conectan a los cartuchos que están dentro de la impresora por medio de unas magueras de plástico flexible para que en lugar de tener sólo los 3 mililitros o 5 mililitros que normalmente contienen cada cartucho tengas los 100 o 200 mililitros que contienen estos depósitos. 750) this.width=750" border=0> Continuous Ink System para Epson El ahorro que te puede generar un sistema de suministro de tinta continua es muy grande, normalmente estos sistemas cuestan unos $50 dólares con 2 depósitos o hasta 6 depósitos para cada color de la tinta, lo cual te permite ahorrar hasta un 98% comparado con el valor de la tinta original, además es fácil de instalar ya que no requiere de software de instalación, eso sí en algunos modelos de cartuchos tal vez requieras resetear el chip. Cómo puedes ver en la siguiente imagen el sistema de tinta continua alimenta a los cartuchos de la impresora por medio de unos tubos (mangueras) que conectan a unos depósitos de tinta con más capacidad que los cartuchos originales que apenas le caben ridículas cantidades de tinta. 750) this.width=750" border=0> Impresora Epson Stylus 1289 con el sistema de tinta continua Alguno de los modelos y marcas más populares que son compatibles con estos sistemas de tinta continua son Canon IP4200, Canon IP4300, Canon IP4500, Canon IP5200, Canon IP5300, Canon MP800, Canon MP810, Canon MP830, Brother 1840c, Brother 110C, Brother 210C, Brother 410CN, Brother 115C, Brother 120C, Brother 215C, Brother 425CN, Brother 3240C, Brother 5440CN, HP 3310, HP 8250, HP 8238, HP 78, HP 15, HP Businessjet 1100, HP Businessjet 1200, HP Businessjet 1000, HP Businessjet K550, HP DeskJet 94, HP DeskJet 95, HP DeskJet 27, HP DeskJet 28, HP DeskJet 56, HP DeskJet 57, HP DeskJet 21, HP DeskJet 22 y muchas más.

martes, 3 de marzo de 2009

Memoria Ram

MEMORIA RAM
La memoria de acceso aleatorio, (en inglés: Random Access Memory cuyo acrónimo es RAM) es la memoria desde donde el procesador recibe las instrucciones y guarda los resultados. Es el área de trabajo para la mayor parte del software de un computador.[1] Existe una memoria intermedia entre el procesador y la RAM, llamada caché, pero ésta sólo es una copia de acceso rápido de la memoria principal almacenada en los módulos de RAM.[1] Los módulos de RAM son la presentación comercial de este tipo de memoria, se compone de integrados soldados sobre un circuito impreso.

Se trata de una memoria de estado sólido tipo DRAM en la que se puede tanto leer como escribir información. Se utiliza como memoria de trabajo para el sistema operativo, los programas y la mayoría del software. Es allí donde se cargan todas las instrucciones que ejecutan el procesador y otras unidades de cómputo. Se dicen "de acceso aleatorio" o "de acceso directo" porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder a la información de la manera más rápida posible.

Integrado de silicio de 64 Bites sobre un sector de memoria de núcleo(finales de los 60)La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, estos dispositivos contienen un tipo entre varios de memoria de acceso aleatorio , ya que las ROM, memorias Flash , caché (SRAM) , los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición.
HISTORIA
La denominación “de Acceso aleatorio” surgió para diferenciarlas de las memoria de acceso secuencial, debido a que en los comienzos de la computación, las memorias principales (o primarias) de las computadoras eran siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas perforadas). Es frecuente pues que se hable de memoria RAM para hacer referencia a la memoria principal de una computadora, pero actualmente la denominación no es precisa.

Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Antes que eso, las computadoras usaban reles y líneas de retardo de varios tipos construidas con tubos de vacío para implementar las funciones de memoria principal con o sin acceso aleatorio.

En 1969 fueron lanzadas una de las primeras memorias RAM basadas en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bites de memoria y para el siguiente año se presento una memoria DRAM de 1 Kilobite, referencia 1103 que se constituyo en un hito, ya que fue la primera en ser comercializada con éxito, lo que significo el principio del fin para las memorias de núcleo magnético. En comparación con los integrados de memoria DRAM actuales, la 1103 es primitiva en varios aspectos, pero tenia un desempeño mayor que la memoria de núcleos.

En 1973 se presentó una innovación que permitió otra miniaturización y se convirtió en estándar para las memorias DRAM: la multiplexación en tiempo de la direcciones de memoria. MOSTEK lanzó la referencia MK4096 de 4Kb en un empaque de 16 pines,[2] mientras sus competidores las fabricaban en el empaque DIP de 22 pines. El esquema de direccionamiento[3] se convirtió en un estándar de facto debido a al gran popularidad que logró esta referencia de DRAM. Para finales de los 70 los integrados eran usados en la mayoría de computadores nuevos, se soldaban directamente a las placas base o se instalaban en zócalos, de manera que ocupaban un área extensa de circuito impreso. Con el tiempo se hizo obvio que la instalación de RAM sobre el impreso principal, impedía la miniaturización , entonces se idearon los primeros módulos de memoria como el SIPP, aprovechando las ventajas de la construcción modular. El formato SIMM fue una mejora al anterior, eliminando los pines metálicos y dejando unas áreas de cobre en uno de los bordes del impreso, muy similares a los de las tarjetas de expansión, de hecho los módulos SIPP y los primeros SIMM tienen la misma distribución de pines.

A finales de los 80 el aumento en la velocidad de los procesadores y el aumento en el ancho de banda requerido, dejaron rezagadas a las memorias DRAM con el esquema original MOSTEK, de manera que se realizaron una serie de mejoras en el direccionamiento como las siguientes:
Módulos formato SIMM de 30 y 72 pines, los últimos fueron utilizados con integrados tipo EDO-RAMFPM-RAM (Fast Page Mode RAM)
Inspirado en técnicas como el "Burst Mode" usado en procesadores como el Intel 486,[4] se implanto un modo direccionamiento en el que el controlador de memoria envía una sola dirección y recibe a cambio esa y varias consecutivas sin necesidad de generar todas las direcciones. Esto supone un ahorro de tiempos ya que ciertas operaciones son repetitivas cuando se desea acceder a muchas posiciones consecutivas. Funciona como si deseáramos visitar todas las casas en una calle: después de la primer vez no seria necesario decir el numero de la calle, unicamente seguir la misma. Se fabricaban con tiempos de acceso de 70 ó 60 ns y fueron muy populares en sistemas basados en el 486 y los primeros Pentium.
EDO-RAM (Extended Data Output RAM)
Lanzada en 1995 y con tiempos de accesos de 40 o 30ns suponia una mejora sobre su antecesora la FPM. La EDO, también es capaz de enviar direcciones contiguas pero direcciona la columna que va utilizar mientras que se lee la información de la columna anterior, dando como resultado una eliminación de estados de espera, manteniendo activo el buffer de salida hasta que comienza el próximo ciclo de lectura.
BEDO-RAM (Burst Extended Data Output RAM)
Fue la evolución de la EDO RAM y competidora de la SDRAM, fue presentada en 1997. Era un tipo de memoria que usaba generadores internos de direcciones y accedía a mas de una posición de memoria en cada ciclo de reloj, de manera que lograba un desempeño un 50% mejor que la EDO. Nunca salio al mercado, dado que Intel y otros fabricantes se decidieron por esquemas de memoria sincrónicos que si bien tenían mucho del direccionamiento MOSTEK, agregan funcionalidades distintas como señales de reloj.

TIPOS DE MEMORIA RAM
DRAM (Dynamic RAM)
VRAM (Vídeo RAM)
SRAM (Static RAM)
FPM (Fast Page Mode)
EDO (Extended Data Output)
BEDO (Burst EDO)
SDRAM (Synchronous DRAM)
DDR SDRAM ó SDRAM II (Double Data Rate SDRAM)
PB SRAM (Pipeline Burst SRAM)
RAMBUS
ENCAPSULADOS
SIMM (Single In line Memory Module)
DIMM (Dual In line Memory Module)
DIP (Dual In line Package)
Memoria Caché ó RAM Caché
RAM Disk

Topologia de red

Cuando hablamos de topología de una red, hablamos de su configuración. Esta configuración recoge tres campos: físico, eléctrico y lógico. El nivel físico y eléctrico se puede entender como la configuración del cableado entre máquinas o dispositivos de control o conmutación. Cuando hablamos de la configuración lógica tenemos que pensar en como se trata la información dentro de nuestra red, como se dirige de un sitio a otro o como la recoge cada estación.
Así pues, para ver más claro como se pueden configurar las redes vamos a explicar de manera sencilla cada una de las posibles formas que pueden tomar.
Topología en estrella.
Todos los elementos de la red se encuentran conectados directamente mediante un enlace punto a punto al nodo central de la red, quien se encarga de gestionar las transmisiones de información por toda la estrella. Evidentemente, todas las tramas de información que circulen por la red deben pasar por el nodo principal, con lo cual un fallo en él provoca la caída de todo el sistema. Por otra parte, un fallo en un determinado cable sólo afecta al nodo asociado a él; si bien esta topología obliga a disponer de un cable propio para cada terminal adicional de la red. La topología de Estrella es una buena elección siempre que se tenga varias unidades dependientes de un procesador, esta es la situación de una típica mainframe, donde el personal requiere estar accesando frecuentemente esta computadora. En este caso, todos los cables están conectados hacia un solo sitio, esto es, un panel central.
Equipo como unidades de multiplexaje, concentradores y pares de cables solo reducen los requerimientos de cableado, sin eliminarlos y produce alguna economía para esta topología. Resulta económico la instalación de un nodo cuando se tiene bien planeado su establecimiento, ya que este requiere de una cable desde el panel central, hasta el lugar donde se desea instalarlo
Topología en bus:
En esta topología, los elementos que constituyen la red se disponen linealmente, es decir, en serie y conectados por medio de un cable; el bus. Las tramas de información emitidas por un nodo (terminal o servidor) se propagan por todo el bus(en ambas direcciones), alcanzado a todos los demás nodos. Cada nodo de la red se debe encargar de reconocer la información que recorre el bus, para así determinar cual es la que le corresponde, la destinada a él.
Es el tipo de instalación más sencillo y un fallo en un nodo no provoca la caída del sistema de la red. Por otra parte, una ruptura del bus es difícil de localizar(dependiendo de la longitud del cable y el número de terminales conectados a él) y provoca la inutilidad de todo el sistema.
Como ejemplo más conocido de esta topología, encontramos la red Ethernet de Xerox. El método de acceso utilizado es el CSMA/CD, método que gestiona el acceso al bus por parte de los terminales y que por medio de un algoritmo resuelve los conflictos causados en las colisiones de información. Cuando un nodo desea iniciar una transmisión, debe en primer lugar escuchar el medio para saber si está ocupado, debiendo esperar en caso afirmativo hasta que quede libre. Si se llega a producir una colisión, las estaciones reiniciarán cada una su transmisión, pero transcurrido un tiempo aleatorio distinto para cada estación. Esta es una breve descripción del protocolo de acceso CSMA/CD, pues actualmente se encuentran implementadas cantidad de variantes de dicho método con sus respectivas peculiaridades. El bus es la parte básica para la construcción de redes Ethernet y generalmente consiste de algunos segmentos de bus unidos ya sea por razones geográficas, administrativas u otras. Topología en anillo:
Los nodos de la red se disponen en un anillo cerrado conectados a él mediante enlaces punto a punto. La información describe una trayectoria circular en una única dirección y el nodo principal es quien gestiona conflictos entre nodos al evitar la colisión de tramas de información. En este tipo de topología, un fallo en un nodo afecta a toda la red aunque actualmente hay tecnologías que permiten mediante unos conectores especiales, la desconexión del nodo averiado para que el sistema pueda seguir funcionando. La topología de anillo esta diseñada como una arquitectura circular, con cada nodo conectado directamente a otros dos nodos. Toda la información de la red pasa a través de cada nodo hasta que es tomado por el nodo apropiado. Este esquema de cableado muestra alguna economía respecto al de estrella. El anillo es fácilmente expandido para conectar mas nodos, aunque en este proceso interrumpe la operación de la red mientras se instala el nuevo nodo. Así también, el movimiento físico de un nodo requiere de dos pasos separados: desconectar para remover el nodo y otra vez reinstalar el nodo en su nuevo lugar.

viernes, 27 de febrero de 2009

Tipos de microprocesadores

En esta nueva entrada ablaremos sibre los tipos de microprocesadores 386,486,pentium 1,2,3,4:

PENTIUM

El procesador Pentium es un miembro de la familia Intel de procesadores de propósito general de 32 bits. Al igual que los miembros de esta familia, el 386 y el 486, su rango de direcciones es de 4 Goctetos de memoria física y 64 Toctetos de memoria virtual. Proporciona unas prestaciones más elevadas gracias a una arquitectura mucho más optimizada. Su bus de datos es de 64 bits. Las distintas unidades funcionales con las que cuenta el procesador Pentium son entre otras cosas dos caches denominadas data cache y code cache, el prefetcher, unidad de paginación, etc.

PENTIUM II

El procesador Intel Pentium II, surgió, al igual que su antecesor Pentium, para los sistemas de sobremesa comerciales de uso general, portátiles, PC domésticos de rendimiento y servidores de nivel básico.En este procesador se combinan los avances de la arquitectura Intel P6 con las extensiones del conjunto de instrucciones de la tecnología MMX™ para ofrecer un rendimiento excelente en las aplicaciones de PC actuales y del futuro.Además, el procesador Pentium II proporciona un notable rendimiento para el software avanzado de comunicados y multimedia, incluidas potentes funciones de tratamiento de imágenes y gráficos realistas, videoconferencias y la posibilidad de ejecutar vídeo de pleno movimiento y a toda pantalla.La combinación de estas tecnologías hacen del procesador Pentium II la opción ideal para la ejecución de cargas de trabajo de modernas aplicaciones con funciones multimedia y un uso intensivo de datos en sistemas operativos avanzados.Los microprocesadores actuales se utilizan para ejecutar una amplia gama de aplicaciones de software. En concreto, la utilización de aplicaciones multimedia, 3D e Internet ha experimentado un tremendo auge en los últimos años y se prevé que esta tendencia continúe en el futuro.La última incorporación a esta familia de procesadores fue el procesador Pentium II 450 MHz que funciona con un bus de sistema de 100 MHz, y la familia de procesadores de sobremesa Pentium II estaba compuesta por los siguientes productos:

Procesador Pentium II 450 MHz

  • Procesador Pentium II 400 MHz
  • Procesador Pentium II 350 MHz
  • Procesador Pentium II 333 MHz
  • Procesador Pentium II 300 MHz

El procesador Pentium II es totalmente compatible con toda una biblioteca de software para PC basado en sistemas operativos tales como MS-DOS*, Windows* 3.1, Windows para Trabajo en Grupo* 3.11, Windows* 98, Windows* 95, OS/2*, UnixWare*, SCO UNIX*, Windows* NT, OPENSTEP*, y Sun Solaris*

PENTIUM III

El procesador Intel Pentium III, el procesador de Intel más avanzado y potente para PC desobremesa, presenta varias funciones nuevas para un rendimiento, productividad y capacidad degestión máximos. Para los usuarios que interactúan con Internet o que trabajan con aplicacionesmultimedia con muchos datos, las innovaciones más importantes son las extensiones "Streaming SIMD" del procesador Pentium III, 70 instrucciones nuevas que incrementan notablemente el rendimiento y las posibilidades de las aplicaciones 3D, de tratamiento de imágenes, de vídeo, sonido y de reconocimiento de la voz. Con toda la potencia necesaria para el software con capacidad para Internet de la próxima generación, los procesadores Pentium III seguirán ofreciendo a los usuarios de PC unas prestaciones excepcionales bien entrado el futuro.El procesador Intel Pentium III ofrece excelentes prestaciones para todo el software para PC y es totalmente compatible con el software existente basado en la arquitectura Intel. El procesador Pentium III a 500 y 450 MHz amplía aún más la potencia de proceso al dejar margen para una mayor exigencia de rendimiento para funciones de Internet, comunicaciones y medios comerciales. El software diseñado para el procesador Pentium III libera todas las posibilidades multimedia del procesador, incluido el vídeo de pantalla completa y movimiento pleno, gráficos realistas y la posibilidad de disfrutar al máximo de Internet. Los sistemas basados en el procesador Pentium III también incluyen las últimas funciones para simplificar la gestión del sistema y reducir el coste total de propiedad para entornos de empresas grandes y pequeñas. El procesador Pentium III ofrece un rendimiento excepcional para las aplicaciones actuales y del futuro, así como la calidad, fiabilidad y compatibilidad que puede esperarse de la primera empresa de microprocesadores del mundo.Los microprocesadores actuales se utilizan para ejecutar una amplia gama de aplicaciones de software. En concreto, la utilización de aplicaciones multimedia, 3D e Internet ha experimentado un tremendo auge en los últimos años y se prevé que esta tendencia continúe en el futuro, por lo que se debería considerar una amplia gama de programas de prueba a la hora de evaluar el rendimiento del procesador y del sistema. Los usuarios y compradores de PC deberían tener en cuenta los diferentes niveles de rendimiento, incluida productividad, multimedia, 3D e Internet.En determinados programas de prueba 3D y multimedia, el procesador Pentium III ha demostrado ventajas sustanciales en cuanto a rendimiento. En comparación con el procesador Pentium II 450 MHz, por ejemplo, el procesador Pentium III 450 MHz muestra una mejora en el rendimiento del 29% en MultimediaMark* 99 y del 74% en la prueba de transformación e iluminación 3D de Winbench* 99. El aumento de rendimiento del procesador Pentium III 500 MHz en estos programas de prueba 3D y multimedia es incluso mayor, y ofrece el rendimiento en PC de sobremesa más alto de Intel en productividad y aplicaciones de Internet.Hoy en día hay muchos desarrolladores trabajando en aplicaciones de próxima generación que elevarán el rendimiento del procesador Pentium III a nuevas cotas. A medida que se actualizan los programas de prueba que tengan en cuenta estas aplicaciones y los programas de pruebas sintéticos hacen lo propio para aprovechar al máximo las posibilidades del procesador Pentium III.


Hasta este momento, la familia del procesador Intel Pentium III incluye los siguientes productos:

  • Procesador Pentium III 500 MHz
  • Procesador Pentium III 450 MHz

El procesador Intel Pentium III ofrece nuevos niveles de rendimiento y productividad para las aplicaciones y sistemas operativos actuales más exigentes. Este procesador incorpora funciones avanzadas para sacar el máximo partido de la arquitectura de empresa "Wired for Management" y del entorno de proceso constante que llevará la productividad comercial a nuevas cotas en el nuevo milenio.El procesador Pentium III presenta las extensiones "Streaming SIMD" que incluyen 70 nuevas instrucciones para acelerar el proceso y mejorar los resultados en las aplicaciones existentes y las de próxima generación, incluidas aplicaciones avanzadas de tratamiento de imágenes, sonido y vídeo 3D, acceso a la web, reconocimiento de voz, nuevas interfaces de usuario y otras aplicaciones de tecnología de vanguardia.Basado en la tecnología avanzada de proceso CMOS de 0,25 de Intel, el núcleo del procesador tiene más de 9,5 millones de transistores. Presentado a velocidades de 450 MHz y 500 MHz, elprocesador Pentium III también incorpora funciones avanzadas como 32K de cachéde nivel 1 sin bloqueo y 512K de caché de nivel 2 sin bloqueo para acceso rápido a datos de prioridad, almacenamiento caché para un máximo de 4GB de espacio en memoria direccionable y escalabilidad a sistemas de proceso dual con hasta 64GB de memoria física. Un número de serie de procesador con comunicación automática proporciona a las aplicaciones de seguridad,autenticación y gestión del sistema una nueva y potente herramienta para identificar sistemasindividuales.Los procesadores Pentium III están disponibles en el formato de encapsulado de contacto único 2 de Intel (S.E.C.C.2) para disponibilidad de volúmenes grandes, mayor protección durante el manejo y compatibilidad con los procesadores de alto rendimiento del futuro. La compatibilidad con la plataforma 400BX AGPset de amplia utilización garantiza también la compatibilidad con los sistemas existentes y un ciclo de calificación corto para obtener el máximo rendimiento de lainversión.

PENTIUM IIII
El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, denominado Willamette, trabajaba a 1,4 y 1,5 GHz; y fue lanzado en noviembre de 2000.Para la sorpresa de la industria informática, el Pentium 4 no mejoró el viejo diseño P6 según las dos tradicionales formas para medir el rendimiento: velocidad en el proceso de enteros u operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE. Al igual que la Pentium II y la Pentium III, el Pentium 4 se comercializa en una versión para equipos de bajo presupuesto (Celeron), y una orientada a servidores de gama alta (Xeon).

MICRO 386:Por su parte, el 386 dispone de una arquitectura de registros de 32 bits, con un bus de direcciones tambien de 32 bits (direcciona hasta 4 Gigabytes = 4096 Mb) y mas modos posibles de funcionamiento: el modo real (compatible 8086), el modo protegido (relativamente compatible con el del 286), un modo protegido propio que permite -por fin!- romper la barrera de los tradicionales segmentos y el modo «virtual 86», en el que puede emular el funcionamiento simultaneo de varios 8086. Una vez mas, todos los modos son incompatibles entre si y requieren de un sistema operativo especifico: si se puede perdonar al fabricante la perdida de compatibilidad del modo avanzados del 286 frente al 8086, debido a la logica evolucion tecnologica, no se puede decir lo mismo del 386 respecto al 286: no hubiera sido necesario añadir un nuevo modo protegido si hubiera sido mejor construido el del 286 apenas un par de años atros. Normalmente, los 386 suelen operar en modo real (debido al DOS) por lo que no se aprovechan las posibilidades multitarea ni de gestion de memoria. Por otra parte, aunque se pueden emplear los registros de 32 bits en modo real, ello no suele hacerse -para mantener la compatibilidad con procesadores anteriores- con lo que de entrada se esto tirando a la basura un 50% de la capacidad de proceso del chip, aunque por fortuna estos procesadores suelen trabajar a frecuencias de 16/20 MHz (obsoletas) y normalmente de 33 y hasta 40 MHz.El 386sx es una variante del 386 a nivel de hardware, aunque es compatible en software. Basicamente, es un 386 con un bus de datos de solo 16 bits -mas lento, al tener que dar dos pasadas para un dato de 32 bits-. De hecho, podria haber sido disiñado perfectamente para mantener una compatibilidad hardware con el 286, aunque el fabricante lo evito probablemente por razones comerciales.

MICRO486:El 486 se diferencia del 386 en la integracion en un solo chip del coprocesador 387. Tambien se ha mejorado la velocidad de operacion: la version de 25 MHz dobla en terminos reales a un 386 a 25 MHz equipado con el mismo tomado de memoria cache. La version 486sx no se diferencia en el tamado del bus, tambien de 32 bits, sino en la ausencia del 387 (que puede ser añadido externamente). Tambien existen versiones de 486 con buses de 16 bits, el primer fabricante de estos chips, denominados 486SLC, ha sido Cyrix. Una tendencia iniciada por el 486 fue la de duplicar la velocidad del reloj interno (pongamos por caso de 33 a 66 MHz) aunque en las comunicaciones con los buses exteriores se respeten los 33 MHz. Ello agiliza la ejecucion de las instrucciones mas largas: bajo DOS, el rendimiento general del sistema se puede considerar practicamente el doble. Son los chips DX2 (tambien hay una variante a 50 MHz: 25 x 2). La culminacion de esta tecnologia viene de la mano de los DX4 a 75/100 MHz (25/33 x 3)

AMD:AMDEn 1997 AMD lanzó el microprocesador AMD K6. Éste procesador estaba diseñado para funcionar en placas base Pentium. La principal ventaja del AMD con respecto al Pentium era su precio, bastante más barato con las mismas prestaciones. El K6 tuvo una gran aceptación en el mercado presentándose como un rival fuerte para Intel. Su sucesor fue el microprocesador K6-2.Con el K6, AMD no sólo consiguió hacerle la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II.En cuanto a potencia bruta, si comparamos sus prestaciones en la ejecución de software de 16 bits, vemos que la diferencia es escasa entre todos los procesadores, quedando como único rezagado el Pentium Pro.Si pasamos a los programas de 32 bits, aquí es al revés, y el que se lleva la palma es el Pentium Pro (El Pentium II puede vencerle sólo si lo comparamos con versiones a mayor velocidad), quedando el K6 algo por debajo del Pentium II, pero muy por encima del Pentium MMX e incluso del Cyrix 6x86.En cálculos en coma flotante, el K6 también queda por debajo del Pentium II, pero por encima del Pentium MMX y del Pro, y aquí el que se queda más rezagado como siempre es el Cyrix.El K6 cuenta con una gama que va desde los 166 hasta los 300 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar

martes, 24 de febrero de 2009

GENERACIONES DE ORDENADORES

En esta entrada vamos a comentar las generaciones de ordenadores.

PRIMERA GENERACIÓN:
Los primeros ordenadores fueron electromecánicos (en base a relés). Aunque Jorge Stibz construyó en 1949 en los laboratorios Bell una máquina programable que trabajaba con números complejos, el Complex Calculator, se considera que el primer ordenador fue desarrollado en 1941, el Z3 del alemán KONRAD ZUSE (1910-1995). Le siguió en 1944 el Mark I de HOWARD AIKEN (1900-1973) y GRACE HOPPER (1906-1992), construido en la Universidad de Hardward con la colaboración de IBM. Pesaba cinco toneladas y tenía más de 750000 piezas y 800 km de cable.
Durante los años 1950 Aiken trabajó activamente con investigadores españoles del Instituto de Electricidad y Automática del CSIC fundado por Torres Quevedo.
La sustitución de los relés por tubos de vacío dio lugar a la Primera Generación de ordenadores electrónicos. El primero fue fabricado en 1945, el ENIAC (Electronic Numerical Integrator and Calculator) de los estadounidenses JOHN ECKERT (1919-1995) y JON MAUCHLY (1907-1980) que se usó en el cálculo de trayectorias de proyectiles. Acabada la guerra se utilizó para calcular el número pi con unos 2000 decimales, y para hacer los primeros diseños de la bomba de hidrógeno. Tenía 18000 tubos y pesaba 30000 kg. Era 300 veces más rápido que el Mark I y sólo costaba 400000 dólares frente a los cinco millones del Mark I. Sin embargo sólo tenía 20 registros de memoria, de 10 dígitos decimales; estaba pues muy lejos de cualquier ordenador personal. En un test de prueba en febrero de 1946 el Eniac resolvió en dos horas un problema de física nuclear que previamente habría requerido 100 años de trabajo de un hombre. Lo que lo caracterizaba como a los ordenadores modernos no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía realizar tareas que antes eran imposibles.
Antes del ENIAC, en 1940 se crearon otras máquinas electrónicas, un pequeño calculador del físico JOHN ATANASOFF (1903-1995) que no era automático ni programable y varias máquinas británicas para descifrar los mensajes del ejército alemán, por ejemplo, en 1943 el Colossus. La batalla legal por la palabra "Computer" la ganó en el año 1973 póstumamente Atanasoff.
Echerk y Mauchly crearon la Electronic Control Co, que en 1950 fue adquirida por la Remington-Rand, allí diseñaron el primer ordenador electrónico de gestión, el UNIVAC (UNIversal Automatic Computer). El aparato tuvo gran éxito y copó el mercado, que hasta entonces había sido feudo de IBM. En respuesta IBM creó una serie de ordenadores excelentes, como el IBM 705 en 1952, desbancando a Univac, mediante una publicidad agresiva. El UNIVAC II no salió hasta 1958, cuando IBM ya había recobrado el liderato. De poco les había servido una fusión con Sperry Giroscope Co (1955) para crear la Sperry Rand Corporation.
En 1945 mientras se construía el ENIAC, se incorporó al equipo el prestigioso matemático húngaro JOHANNES VON NEUMANN (1903-1957), quien propuso que los programas se almacenasen en la memoria como si fuesen datos, y no en una memoria especial, como se hacía desde el diseño de Babbage, equipo que se iba a llamar EDVAC. Los informes fueron tan precisos que otros se adelantaron y así el primer ordenador tipo Von Neumann fue el EDSAC (Electronic Delay Storage Automatic Calculator) construido el año 1949 por Mauricio Wilkes (1913-) en la Universidad de Cambridge. De esta generación sólo llegó uno a España, un IBM 650, contratado por RENFE en 1958.

SEGUNDA GENERACIÓN:
Se considera el inicio en 1958 con la sustitución de los tubos de vacío por los transistores. Los primeros ordenadores transistorizados fueron dos pequeños modelos de NCR y RCA. Los primeros de IBM y Sperry Rand fueron el IBM 7070 (1960) y el UNIVAC 1107 (1962), respectivamente.BULL comercializó los Gamma 30 y 60. Durante esta época se introdujeron las unidades de cinta y discos magnéticos, y las lectoras de tarjetas perforadas e impresoras de alta velocidad. Así mismo aparecieron algunos LENGUAJES de programación, el COBOL (1959), el Algol (1960), el LIPS (1962) y el FORTRAN que fue creado en 1954 para IBM, por JOHN BACKUS (1924-).
El segundo ordenador instalado en España, y primero de la segunda generación llegó en 1959, era un UNIVAC UCT, contratado por la antigua Junta de Energía Nuclear, actualmente CIEMAT. La era de la informática llegó realmente a nuestro país en 1961, en la Feria de Muestras de Barcelona, se presentó un IBM 1401.
Los primeros ejemplares se instalaron en 1962, Sevillana de Electricidad (empresa del grupo ENDESA), Galerías Preciados (Actualmente propiedad de El Corte Inglés S.A.) y MINISTERIO DE HACIENDA. En 1967 IBM donó a la UNIVERSIDAD COMPLUTENSE de Madrid un ordenador científico, modelo 7094.
TERCERA GENERACIÓN:
La principal característica de esta generación fue el uso del circuito integrado, que se incorporó a mediados de los años 1960. Destaca la familia IBM 360 en cuyo desarrollo invirtió 5000 millones de dólares de aquella época(1964) y sobre todo la IBM 370 (1970), el producto más famoso de esta generación. En cuanto a Sperry Rand, en 1965 introdujo la famosa serie 1100 .
Durante esta época surgieron la multiprogramación y el tiempo compartido. También tuvo lugar la denominada "crisis del software" Se intentó la creación de lenguajes universales, el PL/1 (1964) y se estandarizaron los lenguajes más utilizados: Fortran (1966), Algol (1968) y el COBOL (1970). También datan de esta generación el BASIC (1964) y el Pascal (1971)

En España durante el trienio 1964-67 las tabuladoras fueron sustituidas masivamente por ordenadores, y prácticamente desaparecieron al entrar en la década de los 70. En 1970 el parque de ordenadores e distribuía así: Madrid 50%, Barcelona 34% y el resto lo tenían los grandes bancos del norte y algunas cajas de ahorros.
Los miniordenadores surgieron a finales de los 60, como elemento de transición entre las generaciones tercera y cuarta, con los circuitos integrados de media escala (MSI). Sus destinatarios fueron grandes y medianas empresas. Disponían de varias terminales y se organizaban en redes. Destaca la familia PDP 11 de la desparecida Digital Equipment Corporation.

CUARTA GENERACIÓN:
El elemento que provocó el nacimiento de esta generación se considera habitualmente, aunque con cierta controversia, el microprocesador Intel 4004, desarrollado por INTEL en 1971. El primer ordenador personal en EE.UU. fue el Altair 8800 (1974) de la desaparecida empresa MITS. Microsoft tuvo el acierto de construir un intérprete BASIC para él, MITS sobrevivió un par de años, pero Microsoft inició un despegue imparable, dando un gran salto al facilitar a IBM el sistema operativo MS-DOS para el PC, que a su vez lo adquirió a otra empresa. Las imágenes siguientes muestran microprocesadores bajo distintas escalas de ampliación.

En 1971 apareció el PET 2001 de Commodore, empresa absorbida por la holandesa Tulip, el TRS 80 de Radio Shack y el Apple II, fabricado en un garaje por dos jóvenes norteamericanos: STEVEN JOBS (1955-) ySTEVEN WOZNIAK(1950-). A partir de 1980 se produce una eclosión de marcas. Destaca el Sinclair ZX80, precedente del ZX81 y del Spectrum, fabricante absorbido por Amstrad, que consiguió gran éxito vendiendo productos de muy baja calidad fabricados en Corea. Amstrad, como es lógico, abandonó la informática, aunque sigue con equipos musicales y antenas de televisión, de muy baja calidad. En Agosto de 1981 se presentó el IBM PC, que dio lugar a la difusión masiva de la informática personal.
Sin embargo la microinformática, contrariamente a lo que se cree, no comenzó en EE.UU, pues en el año 1973 se creó en España, con la invención del primer ordenador personal, el Kentelek 8, a cargo de la empresa Distesa (de la conocida editorial Anaya), el diseñador fue Manuel Puigbó Rocafort. Jordi Ustrell diseño posteriormente otro ordenador personal par la empresa catalana EINA.
Como se ha visto, desde el ábaco hasta las primeras calculadoras mecánicas pasaron 12 siglos, desde estas últimas al primer ordenador transcurrieron dos siglos y desde el Mark I al primer microordenador pasaron 28 años. Desde entonces la velocidad de desarrollo es difícil de imaginar.

QUINTA GENERACIÓN:En octubre de 1981 el mundo de los ordenadores se vio sacudido por el anuncio hecho en Japón, de una iniciativa de investigación y desarrollo orientada a producir una nueva generación de ordenadores en la primera década de los años de los 90, a los que se les dio el nombre de ordenadores de quinta generación.
Los ordenadores de esta generación deberían de ser capaces de resolver problemas muy complicados, algunos de los cuales requieren toda la experiencia, capacidad de razonamiento e inteligencia de las personas para ser resueltos. Deberían de ser capaces de trabajar con grandes subconjuntos de los lenguajes naturales y estar asentados en grandes bases de conocimientos. A pesar de su complejidad los ordenadores de esta generación se están diseñando para ser manejados por personas no expertas en informática.
Para conseguir estos fines tan ambiciosos estos equipos no tendrán un único procesador, sino un gran número agrupado en tres subsistemas fundamentales: un sistema inteligente, un mecanismo de inferencia y una interfaz de usuario inteligente.
Los avances se sitúan en materia de teleinformática, y un todavía progresivo disminución de tamaño y coste del equipo, así como de técnicas de programación y desarrollo de Inteligencia Artificial, y de control de procesos (robotización).
A los 10 años, se vio el fracaso del pryecto, actualmente no están desarrollados estos ordenadores, aunque se trabajó en distintos países, cuyos programas de investigación más importantes fueron los siguientes:
  • EE.UU.:Proyectos DARPA y MCC
  • Unión Europea: Proyecto Sprit
  • Reino Unido: Proyecto Alvey
  • Japón: Proyecto ICOT
SEXTA GENERACIÓN:Son los ordenadores que tenemos ahora que cuenta con las mas modernas tenologias puertos usb,lectores de tarjetas,lector dvd cd con grabadora etc...


martes, 10 de febrero de 2009

Precio de monitores

monitor trc:precio de 20 a 30 euros monitor lcd:precio 290 euros

martes, 3 de febrero de 2009

como montar un ordenador

fuente de alimentacion

1. Transformación.Este paso es en el que se consigue reducir la tensión de entrada a la fuente (220v o 125v) que son los que nos otorga la red eléctrica.Esta parte del proceso de transformación, como bien indica su nombre, se realiza con un transformador en bobina.La salida de este proceso generará de 5 a 12 voltios.2. Rectificación.La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir, que sufre variaciones en su linea de tiempo, con variaciones, nos referimos a variaciones de voltajes, por tanto, la tensión es variable, no siempre es la misma.Eso lógicamente, no nos podría servir para alimentar a los componentes de un PC, ya que imaginemos que si le estamos dando 12 voltios con corriente alterna a un disco duro, lógicamente no funcionará ya que al ser variable, no estariamos ofreciendole los 12 voltios constantes.Lo que se intenta con esta fase, es pasar de corriente alterna a corriente continua, a través de un componente que se llama puente rectificador o de Graetz.Con esto se logra que el voltaje no baje de 0 voltios, y siempre se mantenga por encima de esta cifra.3. FiltradoAhora ya, disponemos de corriente continua, que es lo que nos interesaba, no obstante, aun no nos sirve de nada, porque no es constante, y no nos serviría para alimentar a ningun circuitoLo que se hace en esta fase de filtrado, es aplanar al máximo la señal, para que no hayan oscilaciones, se consigue con uno o varios condensadores, que retienen la corriente y la dejan pasar lentamente para suavizar la señal, así se logra el efecto deseado.4. EstabilizaciónYa tenemos una señal continua bastante decente, casi del todo plana, ahora solo nos falta estabilizarla por completo, para que cuando aumenta o descienda la señal de entrada a la fuente, no afecte a la salida de la misma.Esto se consigue con un regulador.Tipos de FuentesDespués de comentar estas fases de la fuente de alimentación, procederemos a diferenciar los dos tipos que existen actualmente.Las dos fuentes que podremos encontrarnos cuando abramos un ordenador pueden ser: AT o ATXLas fuentes de alimentación AT, fueron usadas hasta que apareció el Pentium MMX, es en ese momento cuando ya se empezarían a utilizar fuentes de alimentación ATX.Las características de las fuentes AT, son que sus conectores a placa base varían de los utilizados en las fuentes ATX, y por otra parte, quizás bastante más peligroso, es que la fuente se activa a través de un interruptor, y en ese interruptor hay un voltaje de 220v, con el riesgo que supondría manipular el PC.También destacar que comparadas tecnológicamente con las fuentes ATX, las AT son un tanto rudimentarias electrónicamente hablando.En ATX, es un poco distinto, ya que se moderniza el circuito de la fuente, y siempre está activa, aunque el ordenador no esté funcionando, la fuente siempre está alimentada con una tensión pequeña para mantenerla en espera.Una de las ventajas es que las fuentes ATX no disponen de un interruptor que enciende/apaga la fuente, si no que se trata de un pulsador conectado a la placa base, y esta se encarga de encender la fuente, esto conlleva pues el poder realizar conexiones/desconexiones por software.Existe una tabla, para clasificar las fuentes según su potencia y caja.Sobremesa AT => 150-200 W Semitorre => 200-300 W Torre => 230-250 W Slim => 75-100 W Sobremesa ATX => 200-250 W No obstante, comentar, que estos datos son muy variables, y unicamente son orientativos, ya que varía segun el numero de dispositivos conectados al PC.Conexión de DispositivosEn Fuentes AT, se daba el problema de que existian dos conectores a conectar a placa base, con lo cual podia dar lugar a confusiones y a cortocircuitos, la solución a ello es basarse en un truco muy sencillo, hay que dejar en el centro los cables negros que los dos conectores tienen, asi no hay forma posible de equivocarse.

En cambio, en las fuentes ATX solo existe un conector para la placa base, todo de una pieza, y solo hay una manera de encajarlo, así que por eso no hay problema
Existen dos tipos de conectores para alimentar dispositivos:El más grande, sirve para conectar dispositivos como discos duros, lectores de cd-rom, grabadoras, dispositivos SCSI, etc...
Mientras que el otro, visiblemente más pequeño, sirve para alimentar por ejemplo disqueteras o algunos dispositivos ZIP.Instalación de una fuente ATXPara instalar una fuente de alimentación ATX, necesitaremos un destornillador de punta de estrella.Empezaremos por ubicar la fuente en su sitio, asegurando que los agujeros de los tornillos, coinciden exactamente con los de la caja.Una vez hecho esto, procederemos a atornillar la fuente. Acto seguido, conectaremos la alimentación a la placa base con el conector anteriormente comentado, y realizaremos la misma tarea con el resto de los dispositivos instalados.Un punto a comentar, es que solo hay una manera posible para realizar el conexionado de alimentación a los dispositivos, sobretodo, NUNCA debemos forzar un dispositivo.Tras realizar todas las conexiones, las revisaremos, y procederemos a encender el equipo.ConsejosCuidado con tocar el interruptor selector de voltaje que algunas fuentes llevan, este interruptor sirve para indicarle a la fuente si nuestra casa tiene corriente de 220v o 125v si elegimos la que no es tendremos problemas.Es conveniente, revisar de tanto en tanto, el estado del ventilador de la fuente, hay que pensar, que si no tenemos instalado en la parte posterior del equipo un ventilador adicional, es nuestra única salida de aire.Un ventilador de fuente defectuoso puede significar el final de tu equipo, elevando la temperatura del sistema por encima de la habitual y produciendo un fallo general del sistema. También cabe destacar, en como elegir la fuente, si tenemos pensado de conectar muchos dispositivos, como por ejemplo, dispositivos USB, discos duros, dispositivos internos, etc...En el caso de que la fuente no pueda otorgar la suficiente tensión para alimentar a todos los dispositivos, se podrían dar fallos en algunos de los mismos, pero pensar que si estamos pidiendo más de lo que nos otorga la fuente, podemos acabar con una placa base quemada, una fuente de alimentación quemada, un microprocesador quemado, y un equipo flamante en la basura...

martes, 27 de enero de 2009

tipos de pantalla

HAY DOS TIPOS DE PANTALLA
Monitor trc:El monitor es el encargado de traducir y mostrar las imágenes en forma de señales que provienen de la tarjeta gráfica. Su interior es similar al de un televisor convencional. La mayoría del espacio está ocupado por un tubo de rayos catódicos en el que se sitúa un cañón de electrones. Este cañón dispara constantemente un haz de electrones contra la pantalla, que está recubierta de fósforo (material que se ilumina al entrar en contacto con los electrones). En los monitores a color, cada punto o píxel de la pantalla está compuesto por tres pequeños puntos de fósforo: rojo, azul y verde. Iluminando estos puntos con diferentes intensidades, puede obtenerse cualquier color.
Monitor de plasma (tft):Las pantallas de plasma son brillantes (1000 lux o más por módulo), tienen un amplia gama de colores y pueden fabricarse en tamaños bastante grandes, hasta 262 cm de diagonal. Tienen una luminancia muy baja a nivel de negros, creando un negro que resulta más deseable para ver películas. Esta pantalla sólo tiene cerca de 6 cm de grosor y su tamaño total (incluyendo la electrónica) es menor de 10 cm. Los plasmas usan tanta energía por metro cuadrado como los televisores CRT o AMLCD. El consumo eléctrico puede variar en gran medida dependiendo de qué se esté viendo en él. Las escenas brillantes (como un partido de fútbol) necesitarán una mayor energía que las escenas oscuras (como una escena nocturna de una película). Las medidas nominales indican 400 vatios para una pantalla de 50 pulgadas. Los modelos relativamente recientes consumen entre 220 y 310 vatios para televisores de 50 pulgadas cuando se está utilizando en modo cine.

martes, 20 de enero de 2009

partes de la placa base

componentes pequeños separados:
transitor unidad del sistema

memoria de solo lectura (rom)

resistencia
ranura de espansion

memoria de acceso aleatorio (ram)
plada madre

microprocesador

led

fuente de alimentacion

conector

condensador
circuito intengrado
bus