Definicion

En computación, término inglés que hace referencia a cualquier componente físico tecnológico, que trabaja o interactúa de algún modo con la computadora. No sólo incluye elementos internos como el disco duro, CD-ROM, disquetera, sino que también hace referencia al cableado, circuitos, gabinete, etc. E incluso hace referencia a elementos externos como la impresora, el mouse, el teclado, el monitor y demás perifericos.

lunes, 16 de agosto de 2010

dispositivos perifericos
Introducción
Las Computadoras son una herramienta esencial, prácticamente en casi todos los campos de nuestras vidas; es útil, ayuda a la mejora y excelencia del trabajo; lo que lo hace mucho mas fácil y práctico
En poco tiempo, las computadoras se han integrado de tal manera a nuestra vida cotidiana, puesto que han transformado los procesos laborales complejos y de gran dificultad hacia una manera más eficiente de resolver los problemas difíciles, buscándole una solución práctica.
El papel que juegan los dispositivos periféricos de la computadora es esencial, ya que sin tales dispositivos la computadora no sería útil a los usuarios.
Los dispositivos periféricos nos ayudan a introducir a la computadora los datos para que esta nos ayude a la resolución de problemas y por consiguiente obtener el resultado de dichas operaciones, es decir; estos dispositivos nos ayudan a comunicarnos con la computadora, para que esta a su vez nos ayude a resolver los problemas que tengamos y realice las operaciones que nosotros no podamos realizar manualmente.


Dispositivos de Entrada

permiten la comunicacion entre el usuario y la computadora.

Los Tipos de Dispositivos de Entrada Más Comunes Son:


a) Teclado: El teclado es un dispositivo eficaz para introducir datos no gráficos como rótulos de imágenes asociados con un despliegue de gráficas. Los teclados también pueden ofrecerse con características que facilitan la entrada de coordenadas de la pantalla, selecciones de menús o funciones de gráficas.
· Teclado 101: El teclado pesa 1.1 Lb y mide 11.6 Pulgadas de ancho, 4.3 pulgadas de profundidad y 1.2 de altura. Entre los accesorios disponibles se encuentran: cableado para Sun, PC(PS/2) y computadoras Macintosh. Las dimensiones de este teclado son su característica principal. Es pequeño. Sin embargo se siente como un teclado normal.
· Teclado Ergonómico: Al igual que los teclados normales a través de éste se pueden introducir datos a la computadora pero su característica principal es el diseño del teclado ya que éste evita lesiones y da mayor comodidad al usuario, ya que las teclas se encuentran separadas de acuerdo al alcance de nuestras manos, lo que permite mayor confort al usuario.
· Teclado para Internet: El nuevo Internet Keyboard incorpora 10 nuevos botones de acceso directo, integrados en un teclado estándar de ergonómico diseño que incluye un apoya manos. Los nuevos botones permiten desde abrir nuestro explorador Internet hasta ojear el correo electrónico. El software incluido, posibilita la personalización de los botones para que sea el teclado el que trabaje como nosotros queramos que lo haga.
Teclado Alfanumérico: Es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt, etc; se utiliza principalmente para introducir texto.
Teclado de Función: Es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
Teclado Numérico: Se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta, etc.
Teclado Especial: Son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.
Teclado de Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
Teclado Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario.



b) Ratón ó Mouse: Es un dispositivo electrónico que nos permite dar instrucciones a nuestra computadora a través de un cursor que aparece en la pantalla y haciendo clic para que se lleve a cabo una acción determinada; a medida que el Mouse rueda sobre el escritorio, el cursor (Puntero) en la pantalla hace lo mismo. Tal procedimiento permitirá controlar, apuntar, sostener y manipular varios objetos gráficos (Y de texto) en un programa.
A este periférico se le llamó así por su parecido con un roedor.
Existen modelos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado.
Al igual que el teclado, el Mouse es el elemento periférico que más se utiliza en una PC (Aunque en dado caso, se puede prescindir de él).
Los “ratones” han sido los elementos que más variaciones han sufrido en su diseño.
Tipos de Mouse: Existen diferentes tecnologías con las que funciona el Mouse:
Mecánica: era poco precisa y estaba basada en contactos físicos eléctricos a modo de escobillas que en poco tiempo comenzaban a fallar.
Óptica: es la más utilizada en los “ratones” que se fabrican ahora.
Opto mecánica: son muy precisos, pero demasiado caros y fallan a menudo.
Existen “ratones”, como los trackballs, que son dispositivos en los cuales se mueve una bola con la mano, en lugar de estar abajo y arrastrarla por una superficie.
Mouse Óptico Mouse Trackball: Es una superficie del tamaño de una tarjeta de visita por la que se desliza el dedo para manejar el cursor, son estáticos e ideales para cuando no se dispone de mucho espacio.
Hay otro tipo de “ratones” específicos para algunas aplicaciones, como por ejemplo las presentaciones en PC. Estos “ratones” suelen ser inalámbricos y su manejo es como el del tipo TrackBall o mediante botones de dirección. Y por último, podemos ver modelos con ruedas de arrastre que permiten visualizar más rápidamente las páginas de Internet.



c) Micrófono: Los micrófonos son los transductores encargados de transformar energía acústica en energía eléctrica, permitiendo, por lo tanto el registro, almacenamiento, transmisión y procesamiento electrónico de las señales de audio. Son dispositivos duales de los altoparlantes, constituyendo ambos transductores los elementos mas significativos en cuanto a las características sonoras que sobre imponen a las señales de audio. (Ver fig. nº3)
Existen los llamados micrófonos de diadema que son aquellos, que, como su nombre lo indica, se adhieren a la cabeza como una diadema cualquiera, lo que permite al usuario mayor comodidad ya no necesita sostenerlo con las manos, lo que le permite realizar otras actividades.

d) Scanner: Es una unidad de ingreso de información. Permite la introducción de imágenes gráficas al computador mediante un sistema de matrices de puntos, como resultado de un barrido óptico del documento. La información se almacena en archivos en forma de mapas de bits (bit maps), o en otros formatos más eficientes como Jpeg o Gif.
Existen scanners que codifican la información gráfica en blanco y negro, y a colores. Así mismo existen scanners de plataforma plana fija (Cama Plana) con apariencia muy similar a una fotocopiadora, y scanners de barrido manual. Los scanners de cama plana pueden verificar una página entera a la vez, mientras que los portátiles solo pueden revisar franjas de alrededor de 4 pulgadas. Reconocen imágenes, textos y códigos de barras, convirtiéndolos en código digital. Los exploradores gráficos convierten una imagen impresa en una de video (Gráficos por Trama) sin reconocer el contenido real del texto o las figuras.


e) Cámara Digital: se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos:
Cámara de Fotos Digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador.
Cámara de Video: Graba videos como si de una cámara normal, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado. Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso es generalmente para videoconferencias por Internet, pero mediante el software adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas.


f)Lector de Código de Barras: Dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos.




g)Lápices Ópticos: Es una unidad de ingreso de información que funciona acoplada a una pantalla fotosensible. Es un dispositivo exteriormente semejante a un lápiz, con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible. No requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.


h) Palancas de Mando (Joystick): Dispositivo señalador muy conocido, utilizado mayoritariamente para juegos de ordenador o computadora, pero que también se emplea para otras tareas. Un joystick o palanca de juegos tiene normalmente una base de plástico redonda o rectangular, a la que está acoplada una palanca vertical. Es normalmente un dispositivo señalador relativo, que mueve un objeto en la pantalla cuando la palanca se mueve con respecto al centro y que detiene el movimiento cuando se suelta. En aplicaciones industriales de control, el joystick puede ser también un dispositivo señalador absoluto, en el que con cada posición de la palanca se marca una localización específica en la pantalla.

i) Tarjetas Perforadas: ficha de papel manila de 80 columnas, de unos 7,5 cm. (3 pulgadas) de ancho por 18 cm. (7 pulgadas) de largo, en la que podían introducirse 80 columnas de datos en forma de orificios practicados por una máquina perforadora. Estos orificios correspondían a números, letras y otros caracteres que podía leer un ordenador equipada con lector de tarjetas perforadas.


dispositivos de salida

Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor.

los principales dispositivos de salida son:


a) Pantalla o Monitor: Es en donde se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).
Puntos a Tratar en un Monitor:
Resolución: Se trata del número de puntos que puede representar el monitor por pantalla, en horizontal x vertical. Un monitor cuya resolución máxima sea 1024x 768 puntos puede representar hasta 768 líneas horizontales de 1024 puntos cada una.
Refresco de Pantalla: Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en HZ (hertzios) y debe estar por encima de los 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.
Tamaño de punto (Dot Pitch): Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.


b) Impresora: es el periférico que el ordenador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores.
En nada se parecen las impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. (Ver fig. nº 10)
Hay Varios Tipos:
Matriciales: Ofrecen mayor rapidez pero una calidad muy baja.
Inyección: La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las impresoras de uso doméstico o para pequeñas empresas, gracias a su relativa velocidad, calidad y sobre todo precio reducidos, que suele ser la décima parte de una impresora de las mismas características. Claro está que hay razones de peso que justifican éstas características, pero para imprimir algunas cartas, facturas y pequeños trabajos, el rendimiento es similar y el costo muy inferior. Hablamos de impresoras de color porque la tendencia del mercado es que la informática en conjunto sea en color. Esta tendencia empezó hace una década con la implantación de tarjetas gráficas y monitores en color. Todavía podemos encontrar algunos modelos en blanco y negro pero ya no son recomendables.
Láser: Ofrecen rapidez y una mayor calidad que cualquiera, pero tienen un alto costo y solo se suelen utilizar en la mediana y grande empresa. Por medio de un haz de láser imprimen sobre el material que le pongamos las imágenes que le haya enviado la CPU.


c) Altavoces: Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios de 4 o 5 altavoces.



d) Auriculares: Son dispositivos colocados en el oído para poder escuchar los sonidos que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza



e) Bocinas: Cada vez las usa más la computadora para el manejo de sonidos, para la cual se utiliza como salida algún tipo de bocinas. Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad en watts que poseen.






f) Multimedia: Combinación de Hardware y Software que puede reproducir salidas que emplean diversos medios como texto, gráficos, animación, video, música, voz y efectos de sonido.




g) Plotters (Trazador de Gráficos): Es una unidad de salida de información que permite obtener documentos en forma de dibujo.
Existen plotters para diferentes tamaños máximos de hojas (A0, A1, A2, A3 y A4); para diferentes calidades de hojas de salida (bond, calco, acetato); para distintos espesores de línea de dibujo (diferentes espesores de rapidógrafos), y para distintos colores de dibujo (distintos colores de tinta en los rapidógrafos).


h) Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta.






I) Data Show (Cañón): Es una unidad de salida de información. Es básicamente una pantalla plana de cristal líquido, transparente e independiente. Acoplado a un retro proyector permite la proyección amplificada de la información existente en la pantalla del operador.
Conclusión
Como se ha podido observar existen muchos tipos de dispositivos que utiliza la computadora y que son indispensables para poder comunicarnos con la máquina. Un ejemplo muy claro lo es el Teclado y el Mouse.
A lo largo del tiempo, se ha demostrado que la tecnología avanza cada día más en busca de mejores cosas y mayor comodidad para el usuario.
Por ello debemos tener en cuenta como utilizar los dispositivos periférico del ordenador para obtener un mayor aprovechamiento de cada uno de estos y hacer nuestro trabajo más rápido y con la mayor comodidad posible, para lograr facilitar nuestras labores cotidianas en las ayuda de estas maquinas.

Gabinetes o cajas

CAJAS O GABINETES

A pesar del grado de importancia que tenga cada componente, es necesario poder acomodarlas de forma tal que funcionen correctamente, y aquí es donde entra la importancia de los chasis, o gabinetes. Aunque existen de varios tamaños y formas, pero todos permiten colocar y acomodar de manera ordenada todos los dispositivos internos, ya sean unidos a la placa base directamente o mediante cables, aunque en ocasiones requieran características específicas. Una parte indispensable en el funcionamiento de una computadora es la fuente de poder, que sin ella por más que tengamos los componentes necesarios, nunca encenderá si ella, la cual viene incluida en el gabinete en la mayoría de los casos. También requerimos de la fuente correcta, dependiendo el voltaje que requiera nuestra computadora o el tipo de terminales que tenga la tarjeta madre.



BABY AT o AT


Ha sido el estándar absoluto durante años. Definida para una placa de unos 220×330 mm, con unas posiciones determinadas para el conector del teclado, las ranuras de expansión y los agujeros de anclaje a la caja, así como un conector eléctrico dividido en dos piezas. Estas cajas son las típicas de los ordenadores “clónicos” desde el 286 hasta los primeros Pentium.

Con el auge de los periféricos (tarjeta sonido, CD-ROM, discos extraíbles) salieron a la luz sus principales carencias: mala circulación del aire en las cajas (uno de los motivos de la aparición de disipadores y ventiladores de chip) y, sobre todo, una maraña enorme de cables que impide acceder a la placa sin desmontar. Para identificar una placa Baby-AT, lo mejor es observar el conector del teclado, que casi seguro que es una clavija DIN ancha, como las antiguas de HI-FI o bien mirar el conector que suministra la electricidad a la placa, que deberá estar dividido en dos piezas, cada una con 6 cables, con 4 cables negros (2 de cada una) en el centro.

Factor de forma Baby-AT es en esencia el mismo de la tarjeta madre de la IBM XT original, con modificaciones en las posiciones de los orificios de, tornillos, para ajustarse en un gabinete de tipo AT.

Estas tarjetas madre tienen también una posición especifica del conector del teclado y de los conectores de ranuras para alinearse con las aperturas del gabinete.

La tarjeta madre Baby-AT se ajustara a cualquier tipo de gabinete con excepción de los de perfil bajo y línea esbelta. Debido a su flexibilidad, este es ahora el factor más popular.


ATX


El ATX mejora a las tarjetas madre Baby-AT y LPX en diversas áreas principales van camino de ser el único estándar de caja del mercado si es que no lo es completamente ya.

Se las supone de más fácil ventilación y menos maraña de cables, debido a la colocación de los conectores. Para ello, el microprocesador suele colocarse cerca del ventilador de la fuente de alimentación y los conectores para discos cerca de los extremos de la placa.

La diferencia “a ojo descubierto” con las AT se encuentra en sus conectores, que suelen ser más (por ejemplo, con USB o FireWire), están agrupados y tienen el teclado y ratón en clavijas mini-DIN. Además, reciben la electricidad por un conector de distinta forma y en una sola pieza.

En estas cajas los puertos de comunicaciones serie, paralelo y otros como el USB, PS/2 de teclado van soldados a la placa.

El factor de forma ATX es una velocidad reciente en los factores de forma de tarjetas madre.

El ATX es una combinación de las mejores características de los diseños de las tarjetas madre Baby-AT y LPX, incorporando muchas nuevas mejoras y características.

El factor de forma ATX es en esencia una tarjeta madre Baby-AT girada de lado en el chasis, junto con una ubicación y conector de la fuente de poder modificada lo más importante por saber en primera instancia sobre el factor de forma ATX consiste que es físicamente incompatible con los diseños previos tanto del Baby-AT como del LPX.

En otras palabras se requiere de un gabinete y una fuente de poder diferentes que correspondan con la tarjeta madre ATX. Estos nuevos diseños de gabinete se han vuelto comunes y se les puede encontrar en muchos sistemas.

La especificación oficial ATX fue liberada por Intel en julio de 1995, y está escrita como una especificación abierta para la industria. La última revisión de la especificación es la versión 2.01, publicada en febrero de 1997. Intel ha publicado especificaciones detalladas para que otros fabricantes puedan emplear el diseño ATX en sus sistemas.


LPX


Estas placas son de tamaño similar a las anteriores, aunque con la peculiaridad de que las ranuras para las tarjetas de expansión no se encuentran sobre la placa base, sino en un conector especial en el que están pinchadas, la “riser card”.

De esta forma, una vez montadas, las tarjetas quedan paralelas a la placa base, en vez de perpendiculares como en las Baby-AT; es un diseño típico de ordenadores de sobremesa con caja estrecha (menos de 15 cm de alto), y su único problema viene de que la riser card no suele tener más de dos o tres ranuras, contra cinco en una Baby-AT típica.

Otros factores de forma popular que se utilizan en las tarjetas madre hoy en día son el LPX y el mini-LPX. Este factor de forma fue desarrollado primero por Western Digital para algunas de sus tarjetas madre.

Las tarjetas LPX se distinguen por varias características particulares.

La más notable consiste que las ranuras de expansión están montadas sobre una tarjeta de bus vertical que se conecta en la tarjeta madre.

Las tarjetas de expansión deben conectarse en forma lateral en la tarjeta vertical. Esta colocación lateral permite el diseño de gabinete de perfil bajo. Las ranuras se colocan a uno o ambos lados de la tarjeta vertical dependiendo del sistema y diseño del gabinete.

Otra característica distintiva del diseño LPX es la colocación estándar de conectores en la parte posterior de la tarjeta. Una tarjeta LPX tiene una fila de conectores para vídeo(VGA de 14 pins), paralelo (de 25 pins), dos puertos seríales (cada uno de 9 pins) y conectores de ratón y teclado de tipo mini-DIN PS/2.


Mainboards o tarjetas madre

Tarjeta madre de PC


Una tarjeta madre es una tarjeta de circuito impreso usada en una computadora personal. Esta es también conocida como la tarjeta principal. El término "tarjeta principal" es también usado para la tarjeta de circuito principal en otros dispositivos electrónicos. El resto de este artículo discute la muy llamada "PC compatible IBM" tarjeta madre.

Una tarjeta madre de PC permite la unión de la CPU, tarjeta de gráficos, tarjeta de sonido, controlador de IDE/ATA/Serial ATA de disco duro, memoria (RAM), y caso todos los otros dispositivos en un sistema de computo. Contiene el chipset, que controla el funcionamiento del CPU, las ranuras de expansión PCI, ISA y AGP, y (usualmente) los controladores de IDE/ATA también. La mayoría de los dispositivos que pueden unirse a una tarjeta madre son unidos vía uno o más ranuras de expansión o enchufes.



DIFERENCIAS ENTRE LA TARJETAS MADRES VIEJAS Y LAS ACTUALES



Mainboard antiguas

En el motherboard existe una serie desw it ches, (pequeños interruptores) y Jumpers (puentecitos metálicos que se pueden sacar y poner). En la mayoría de los casos, no es necesario meterse con los jumpers éstos ya vienen configurados por el fabricante.

Los switches de opciones son otra historia; estos le dicen al motherboard que tipo de accesorios tiene conectados al mismo, y cuanta memoria tiene instalada. Los switches están localizados en un pequeño banco, denominado DIP (por Dual In-Line Package). El conjunto de switches DIP tiene ocho pequeños controles en un algunos motherboards. Se pueden mover con la punta de una lapicera o cualquier otro instrumento de punta.

Motherboards actuales:

En los motherboards actuales la configuración no está dada por los switches, sino por un pequeño programa de setup. Este programa está disponible en discos de utilidades embalados junto con la maquina o insertos dentro del sistema y siempre disponibles. Este programa de setup es accedido por muchos motherboards presionando la tecla Delete mientras la maquina esta boteando (recién arrancada).

Los cambios que usted realiza en el programa de setup son almacenados en un tipo especial de memoria denominado CMOS (los circuitos integrados CMOS con conocidos por su poco consumo de energía). El contenido de esta memoria no se pierde al apagar la maquina gracias a una pequeña batería conectada al motherboard.

Aunque se usa el programa de setup, también hay una serie de switches para setear las opciones, muchos motherboards tienen al menos dos o tres conjuntos del tipo de chips RAM y ROM que se tengan instalados.

Partes de la Tarjeta Madre


Enchufes CPU


Hay diferentes ranunas de expansion y enchufes para CPUs según cual CPU necesites para usar, es importantes que la tarjeta madre tenga el enchufe correcto para la CPU. El enchufe A es usado para los procesadores AMD Athlon y Duron, el enchufe A es para procesadores AMD Athlon viejos, el enchufe 478 es para los procesadores Pentium 4 Northwood, enchufe 423 es usado para procesadores Intel Pentium 4, enchufe 370 es para procesadores Intel Pentium III y Celeron, ranura 1/ranura 2 es para procesadores viejos Intel Pentium II/III y Celeron, enchufe 7 es para procesadores Intel Petium y Pentium MMX, Super7 (enchufe 7 con una velocidad de bus de 100MHz) es para procesadores AMD K6, K6-2 y K6-3, y enchufe 8 es para Pentium Pro. Los enchufes más nuevos con tres números dígitos es llamado después del numero de pins que contiene.

Tarjetas de ranuras de expansión periféricas

Hay usualmente un numero de ranuras de tarjeta de expansión para permitir dispositivos periféricos y tarjetas para ser insertadas. Cada ranura es compatible con una o mas estandares bus de industria. Comúnmente buses disponibles incluyen: ISA (Industry Standard Architecture), EISA (extended ISA), MCA (Micro Channel Architecture), VESA (Video Electronic Standards Association), PCI (Peripheral Component Interconnect), y AGP (Advanced Graphics Port).

ISA era el bus original para conectar tarjetas a una PC; a pesar de limitaciones significantes de desempeño este no fue remplazado por el mas avanzado pero incompatible MCA (la solución propietaria de IBM la cual apareció en esta serie PS/2 de empresas de computadoras y un puñado de otros fabricantes) o la igualmente avanzada y retrograda compatible bus EISA, pero perduro como un estándar en PCs nuevas hasta el fin de el siglo XX, ayudada primero por el breve dominiode la extensión VESA durante el reinado de el 486, y entonces por la necesidad de acomodar el largo numero de tarjetas periféricas ISA existentes. El mas reciente bus PCI es el estándar de la industria actual, el cual inicialmente era un suplemento de alta velocidad a ISA por periféricos de alto ancho de banda (notables tarjetas gráficas, tarjetas de red, y adaptadores host SCSI), y gradualmente reemplazo ISA como un propósito general. Una ranura de AGP es una alta velocidad, puerto de único propósito diseñado solo para conectar tarjetas gráficas de desempeño alto (el cual produce salida de video) a la PC.

TIPOS DE MAINBOARD

Existen diferentes tipos de mainboard que han salido al mercado las cuales son:

A

A-Trend ATC6240


Abit KA7


Abit AT7 Max


Abit AT7 Max2


Abit BD7 RAID


Abit BE6


Abit BE6-II


Abit BF6


Abit BH6


Abit BP6


Abit BX6 revisión 2.0


Abit IT7 Max


Abit IT7 Max2


Abit KR7A RAID


Abit KR7A 133R


Abit KT7 RAID


Abit KT7A RAID


Abit NF7-M


Abit SD7-533


Abit TH7 RAID


Abit TH7-II RAID


Abit ZM6


AOpen AK72


AOpen AK73 Pro


AOpen AK73 Pro (A)


AOpen AK77 Plus


AOpen AK77-8X Max


AOpen AK77-333


AOpen AX3S-Pro


AOpen AX45-8X Max


AOpen AX4B Pro 533


AOpen AX4B 533 Tube


AOpen AX4BS-Pro


AOpen AX4G-Pro


AOpen AX4PE Max


AOpen AX6B


AOpen AX6C


AOpen AX37 PLUS


AOpen AX63 PRO


AOpen AX64 Pro


AOpen MX64


Asus A7A266


Asus A7M266


Asus A7N8X


Asus A7V


Asus A7V133


Asus A7V266-E


Asus A7V333


Asus CUSL2-C


Asus P4G8X


Asus P4T533-C


Asus P2B


Asus P4PE


Asus P4S8X


Asus P4T


Azza 815EPX


Azza PT-815TX


Azza KT133BX


Azza KT3ABX


B


Biostar M6TSS


Biostar M7MIA


Biostar M7VKD

C


Chaintech CT-6AJA4


Chaintech CT-6CTA2


Chaintech CT-6OJV


Chaintech CT-6VJD


Chaintech CT-6VJD2


Chaintech CT-7AJA


D

DFI AD70-SR


DFI AK70


DFI AK-74AC


DFI AK-74SC


DFI AK-75-EC


DFI AK-76-SN


DFI CS35-EC


DFI P2XBL


DFI CA61


DFI CB61


DFI CS61-EC


DFI NB70-SC


DFI NT70-SA


DFI PA61


DFI PC64


DFI PW65-E


DFI TA64-B


DFI WT70-EC


E


ECS K7S6A


ECS K7VMA


ECS K7VTA3


ECS K7VZA


ECS K7VZM


ECS L4IBAE


ECS L4S5A


ECS L4S8A


ECS P5SS-Me


ECS P5VP-A+


ECS P6BXT-A+


ECS P6BXT-A+ rev.


ECS P6IPA


ECS P6ISM-II


ECS P6VAP-A+


ECS P6VXA


EPoX EP-BX3


EPoX EP-3SPA3


EPoX EP-6VBA


EPoX EP-7KXA


EPoX EP-8K5A3+


EPoX EP-8KHA


EPoX EP-8KTA


EPoX EP-8KTA3


EPoX EP-8KTA3+


EPoX EP-MVP3G2


EPoX EP-MVP3G-M


F


Fic AZ11


Fic FA11


Fic FB11


Fic KA-11


Fic KW15


Fic PA2013 con 2Mb L2


Fic SD-11


Fic VB-601


Fic VB-601-V


Fic VB-601-Z


G

Gigabyte GA-5AX rev 4


Gigabyte GA-6BXDU


Gigabyte GA-6BXE


Gigabyte GA-6CXC


Gigabyte GA-6R7Pro


Gigabyte GA-6OXE


Gigabyte GA-6OXET


Gigabyte GA-6OXM7E


Gigabyte GA-6WMM7


Gigabyte GA-71X


Gigabyte GA-71XE


Gigabyte GA-7DX


Gigabyte GA-7VTX


Gigabyte GA-7ZX


Gigabyte GA-7ZXR


Gigabyte GA-8PE667


Gigabyte GA-BX2000


I

Intel D850GB


Intel D845GEBV2


IWILL BD100


Iwill BD100 Plus


IWILL BD133u


Iwill DBS100


Iwill KA266


Iwill KD266


Iwill KK266


Iwill KK266 Plus


Iwill LE370


P4GS


Iwill Slocket II


Iwill VD133


Iwill VD133 Gold


Iwill VD133 Pro RAID


Iwill W100


Iwill XA100 Plus


Iwill XP333-R


M


Matsonic MS7070S


Matsonic MS7192S


Matsonic MS9068E


MSI 845E Max2


MSI 845 Pro


MSI 845 Pro 2


MSI 850 Pro


MSI 850 Pro 2


MSI 845PE Max2 FIR


Micro-Star K7 Pro


MSI K7T Pro MS-6330


MSI K7T Pro -2A


MSI K7T Turbo R


MSI K7T Turbo R Ltd


MSI KT3 Ultra ARU


Micro-Star MS-6163


Micro-Star MS-6163 Pro


Micro-Star MS-6301


MSI Pro266 Master R


MSI 815E Pro MS-6337


MSI 815EP Pro MS-6337


MSI MS-6337LE5


Q


QDI Winnex1


S


Shuttle AB30R


Shuttle AK10


Shuttle AK11


Shuttle AE22


Shuttle AE23


Shuttle AK31


Shuttle AK31 Rev 3.1


Shuttle AK32


Shuttle AK35GTR


Shuttle AV14


Shuttle AV18


Shuttle AV30


Shuttle AV40R


Shuttle AV61


Shuttle AV64


Shuttle HOT-681Z


Shuttle ME18


Shuttle ME21


Shuttle SS40G XPC


Soltek SL-02A+


Soltek SL-56G2


Soltek SL-67KV


Soltek SL-75KV


Soltek SL-75DRV


Soltek SL-75DRV4


Soltek SL-77KV


Soltek SL-85DR2


Soltek SL-85DRS2


Soyo SY-5EMA+


Soyo SY-6BA+


Soyo SY-6BA+III


Soyo SY-6IZA


Soyo SY-6VBA


Soyo SY-6VZA


Soyo SY-7IS2


Soyo SY-7ISA


Soyo SY-7ISM


Soyo SY-7VCA


Soyo SY-D6IBA2


Soyo SY-K7ADA


Soyo SY-K7V Dragon


Soyo SY-K7V Dragon+


Soyo SY-K7VIA


Soyo SY-K7VTA


Soyo SY-K7VTA Pro


Soyo SY-KT333 Dragon U


Soyo SY-TISU


Soyo SY-P4I Fire Dragon


Soyo SY-P4S Dragon U.


Soyo P4X400 Dragon Ultra


T


Tekram P6Pro-A+


TMC TI6NB


TMC TI6NBFV+


TMC TI6VG4


Transcend TS-AKR4


Transcend TS-AKT4/A


Transcend TS-ALR4


Transcend TS-ASL3


Transcend TS-ASP3


Transcend TS-AVD1


Transcend TS-AVE3


Tyan Tomcat S2054


Tyan Tomcat i815T S2054


Tyan Trinity S1598


Tyan Trinity S2390B KT-A


Tyan Trinity 400 S1854


Tyan Trinity 510 S2266


Tyan Trinity K7


V


VIA P4XB-R


VIA P4XB-RA

TIPOS DE PLACA BASES:


Formato de Placa AT

El factor de forma AT es el empleado por el IBM AT y sus clones en formato sobremesa completo y torre completo. Su tamaño es de 12 pulgadas de ancho x 11-13 pulgadas de profundo. Su gran tamaño dificultaba la introducción de nuevas unidades de disco. Además su conector con la fuente de alimentación inducía fácilmente al error. Actualmente están todas descatalogadas, excepto un par, que se encuentran en el museo de la informática.


Formato de Placa Baby AT


IBM presenta en 1985 el formato Baby AT, que es funcionalmente equivalente a la AT, pero significativamente menor, su menor tamaño favorece las cajas más pequeñas y facilita la ampliación, por lo que toda la industria se vuelca en él abandonando el formato AT. Tienen multitud de cables que dificultan la ventilación y con el micro alejado de la entrada de alimentación. Todo esto será resuelto por el formato ATX.

Baby-AT

Fue el estándar absoluto durante años. Define una placa de unos 220x330 mm, con unas posiciones determinadas para el conector del teclado, los slots de expansión y los agujeros de anclaje a la caja, así como un conector eléctrico dividido en dos piezas.

Estas placas son las típicas de los ordenadores "clónicos" desde el 286 hasta los primeros Pentium. Con el auge de los periféricos (tarjeta sonido, CD-ROM, discos extraíbles...) salieron a la luz sus principales carencias: mala circulación del aire en las cajas (uno de los motivos de la aparición de disipadores y ventiladores de chip) y, sobre todo, una maraña enorme de cables que impide acceder a la placa sin desmontar al menos alguno.

Para identificar una placa Baby-AT, lo mejor es observar el conector del teclado, que casi seguro que es una clavija DIN ancha, como las antiguas de HI-FI; vamos, algo así: o bien mirar el conector que suministra la electricidad a la placa, que deberá estar dividido en dos piezas, cada una con 6 cables, con 4 cables negros (2 de cada una) en el centro


Formato de Placa ATX


El formato ATX es presentado por INTEL en 1995 con un tamaño de 12 pulgadas de ancho por 9,6 pulgadas de profundo, en este nuevo formato se resuelven todos los inconvenientes que perjudicaron a la ya mencionada placa. Incorporan los puertos más habituales y en algunos casos incluso la salida de monitor VGA. Todo esto conlleva el que muchas tarjetas necesarias se integren en la placa madre, abaratando costos y mejorando la ventilación.

Factor de forma ATX

La placa de la foto pertenece a este estándar. Cada vez más comunes, va camino de ser las únicas en el mercado.

Se las supone de más fácil ventilación y menos maraña de cables que las Baby-AT, debido a la colocación de los conectores. Para ello, el microprocesador suele colocarse cerca del ventilador de la fuente de alimentación y los conectores para discos cerca de los extremos de la placa.

La diferencia "a ojo descubierto" con las AT se encuentra en sus conectores, que suelen ser más (por ejemplo, con USB o con FireWire), están agrupados y tienen el teclado y ratón en clavijas mini-DIN. Además, reciben la electricidad mediante un conector formado por una sola pieza

FORMATO DE PLACA LPX


Este factor de forma lo utilizan muchos equipos de marca para ordenadores de sobremesa. La mayoría de las placas tienen integrados más periféricos de los usuales. Los slots para las tarjetas de expansión no se encuentran sobre la placa base sino en un conector especial en el que están pinchadas, llamados riser card.

Factor de forma LPX

Estas placas son de tamaño similar a las Baby-AT, aunque con la peculiaridad de que los slots para las tarjetas de expansión no se encuentran sobre la placa base, sino en un conector especial en el que están pinchadas, la riser card.

De esta forma, una vez montadas, las tarjetas quedan paralelas a la placa base, en vez de perpendiculares como en las Baby-AT; es un diseño típico de ordenadores de sobremesa con caja estrecha (menos de 15 cm de alto), y su único problema viene de que la riser card no suele tener más de dos o tres slots, contra cinco en una Baby-AT típica.


FORMATO DE PLACA NLX


Es similar al lpx. El objetivo de este factor de forma es la facilidad para retirar y sustituir la placa base sin herramientas.

Factor de forma NLX

Es el más reciente desarrollo en la tecnología de tarjetas madres de escritorios.

Se trata de un factor de forma de perfil bajo, similar en apariencia al LPX.

Comprende la capacidad de manejar el tamaño físico del sistema de los nuevos procesadores, así como sus características térmicas más elevadas, el factor forma NLX se diseño específicamente para abordar estos problemas.

Ventajas Específicas

- Manejo de las tecnologías de procesadores actuales.

- Flexibilidad ante el rápido cambio de tecnologías de procesadores.

- Manejo de otras tecnologías emergentes. 1.2







domingo, 15 de agosto de 2010

Discos duros


Un poco de historia
Aparte del clarísimo crecimiento que se puede o
bservar a lo largo de todas estas tecnologías, el avance evolutivo es evidente también en términos cronológicos. Por ejemplo, y también de forma orientativa, podemos citar un “calendario” muy especial: durante el año 1992 y principios del 93, los discos duros implementados más comúnmente en los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo, antes de acabar el mismo año 94 ya nos poníamos en 214 y 260 Megas.
1995 fue testigo de la proliferación de los 428 y 540 Megas, pero antes de finalizar dicho año los discos de 620 y 850 Megas, e incluso se alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también eran muy utilizados. En 1997 lo más bajo que se instalaba eran discos de 1,2 y 1,7 Gigabytes, siendo lo más normal discos de 2 Gigas. Hoy día, a finales de 1999, se instalan discos de 8, 12 y 15 Gb.
En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de buena parte del profesional, debid
o a su buen rendimiento y mejor precio. No obstante, es preciso recordar que SCSI es cada vez más popular y asequible. En cualquiera de los casos, no debemos olvidar que, para obtener el máximo rendimiento, el disco y la controladora deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de sí todo lo posible con una controladora Fast SCSI, y viceversa. Lo mismo sucede con IDE: una controladora EIDE se verá frenada por un disco IDE estándar y viceversa.
Por otro lado, la relación precio/Megabyte sigue más o menos la onda de otros componentes informáticos; más que la bajada de precios, lo que realmente ocurre es que se da más por el mismo precio.

IEEE 1394 Firewire
Este es el nuevo bus de discos duros que se utilizará dentro de unos meses en adelante, por lo que ahora no está a la venta. Sin embargo
, es bueno conocerlo, ya que esto se trata de una guía.
El IEEE 1394, que se dio a conocer debido sobre todo a la lista de tecnologías contenidas en Windows 98, es un nuevo bus que permite conectar hasta 63 dispositivos con una velocidad de datos media-rápida. En el fondo es similar al USB, pero, como verás más adelante, tiene diferencias tanto en aplicaciones como en prestaciones. No se harán competencia uno con otro y convivirán pacíficamente en un mismo ordenador.

Lo mejor de todo es el tipo de cosas que se pueden conectar. Éstas incluyen discos duros, DVD-ROMs y CD-ROMs de alta velocidad, impresoras, escáneres... y la novedad: cámaras de fotos digitales, videocámaras DV, televisiones... Todo esto último es un nuevo hardware que se está fabricando ya. De hecho, ya hay disponibles muchos elementos. Gracias al 1394, se podrán conectar cámaras
digitales y de DV sin la necesidad de incómodas tarjetas que vienen opcionalmente con estos aparatos.
Y ahora, te preguntarás cómo se conecta todo esto al ordenador. Por el momento, se hará con controladoras PCI. Para más información, mira el
artículo sobre IEEE 1394 Firewire.
Elegir el disco duro. IDE vs. SCSI
Como la función principal del disco duro es la de actuar como almacén de datos a largo plazo, la capacidad es una consideración fundamental. Hay que buscar un disco duro de entre 4 y 12 Gb, dependiendo del tipo de datos que piense almacenar en el disco duro. Otras consideraciones son la velocidad de acceso (busquemos una velocidad mínima de 10 a 12 milisegundos, y si llega a 8 o 6, mejor), el buffer (recomendado de 256 Kb), rpm (revoluciones por minuto, busquemos 7.200) y el tamaño de la caché del disco duro. También es importante considerar el tipo de datos que piensa almacenar en su disco duro. Los formatos de datos actuales (video, sonido y gráficos) pueden requerir varios megabytes de espacio para alm
acenamiento.
De todas las tecnologías comentadas, cuando pienses comprar un disco duro tendrás dos opciones a elegir: IDE o SCSI. Los discos duros SCSI requieren hardware adicional y son más adecuados para tipos de operaciones de entrada/salida como servidores de archivos. Las unidades de disco duro IDE o EIDE (Enhanced IDE, o IDE mejorado) no requieren hardware adicional y los de la variante UDMA/33 o DMA/66 son casi igual o más veloces que los discos duros SCSI (los SCSI-2 concretamete). Para la mayoría de los usos de alto rendimiento, un disco duro EIDE suele ser el más apropiado y económico.
Otro punto es que
el IDE admite en la actualidad cuatro dispositivos (que pueden ser discos duros, CD-ROMs, y algún tipo de disco removible), el SCSI 1 y 2 admite 7 dispositivos (discos duros, CD-ROMs, escáneres y discos removibles) y el Ultra SCSI) admite 15 (el Ultra2 SCSI LVD admite ¡30!). La cantidad de dispositivos que vamos a necesitar es otro factor de elección.
Y por último, informaros bien de las características técnicas del disco duro que tengáis en mente adquirir; si en el establecimiento no pueden informaros bien, solicitad un manual de la unidad, en ellos se suelen detallar todas sus especificaciones técnicas.

INTRODUCCION
Siempre que se enciende el computador, los discos sobre los que se almacenan los datos giran a una gran velocidad (a menos que disminuyan su potencia para ahorrar electricidad).
Los discos duro
s de hoy, con capacidad de almacenar multigigabytes mantienen el mínimo principio de una cabeza de Lectura/Escritura suspendida sobre una superficie magnética que gira velozmente con precisión microscópica.
Pero hay un aspecto de los discos duros que probablemente permanecerá igual. A diferencia de otros componentes de la PC que obedecen a los comandos del software, el disco duro hace ruidos cuando emprende su trabajo. Estos ruidos son recordatorio de que es uno de los pocos componentes de una PC que tiene carácter mecánico y electrónico al mismo tiempo
Los discos duros pertenecen a la llamada memoria secundaria o almacenamiento secundario. Al disco duro se le conoce con gran cantidad de denominaciones como disco duro, rígido (frente a los discos flexibles o por su fabricación a base de una capa rígida de aluminio), fijo (por su situación en el ordenador de manera permanente). Estas denominaciones aunque son las habituales no son exactas ya que existen discos de iguales prestaciones pero son flexibles, o bien removibles o transportables, u otras marcas diferentes fabricantes de cab
ezas.
Las capacidades de los discos duros varían desde 10 Mb. hasta varios Gb. en minis y grandes ordenadores. Para conectar un disco duro a un ordenador es necesario disponer de una tarjeta controladora. La velocidad de acceso depende en gran parte de la tecnología del propio disco duro y de la tarjeta controladora asociada al discos duro.
Estos están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central sobre el que se mueven. Para leer y escribir datos en estos platos se usan las cabezas de lectura/escritura que mediante un proceso electromagnético codifican / decodifican la información que han de leer o escribir. La cabeza de lectura/escritura en un disco duro está muy cerca de la superficie, de forma que casi vuela sobre ella, sobre el colchón de aire formado por su propio movimiento. Debido a esto, están cerrados herméticamente, porque cualquier partícula de polvo puede dañarlos.

Unidad de disco duro:
Los discos duros se presentan recubiertos de una capa magnética delga­da, habitual­mente de óxido de hierro, y se dividen en unos círcu­los concéntricos cilindros (coinci­dentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (pri­mer cilindro) y terminan en la parte interior (último). Asi­mismo estos cilin­dros se dividen en sectores, cuyo número esta determinado por el tipo de disco y su formato, siendo todos ellos de un tamaño fijo en cualquier disco. Cilindros como secto­res se identi­fican con una serie de números que se les asignan, empezan­do por el 1, pues el numero 0 de cada cilin­dro se reserva para propósitos de identificación mas
que para almace­namiento de datos. Estos, escritos/leídos en el disco, deben ajus­tarse al tamaño fijado del almacena­miento de los secto­res. Habi­tualmente, los sistemas de disco duro contienen más de una unidad en su inte­rior, por lo que el número de caras puede ser más de 2. Estas se identi­fi­can con un número, siendo el 0 para la primera. En general su organiza­ción es igual a los disquetes. ­­­­­La capa­cidad del disco resulta de multiplicar el número de caras por el de pistas por cara y por el de secto­res por pista, al total por el número de bytes por sector.
Para escribir, la cabeza se sitúa sobre la celda a grabar y se hace pasar por ella un pulso de corriente, lo cual crea un campo magnético en la superficie. Dependiendo del sentido de la corriente, así será la polaridad de la celda. ara leer, se mide la corriente inducida por el campo magnético de la celda. Es decir que al pasar sobre una zona detectará un campo magnético que según se encuentre magnetizada en un sentido u otro, indicará si en esa posición hay almacenado un 0 o un 1. En el caso de la escritura el proceso es el inverso, la cabeza recibe una corriente que provoca un campo magnético, el cual pone la posición sobre la que se encuentre la cabeza en 0 o en 1 dependiendo del valor del campo magnético provocado por dicha corriente. Los componentes físicos de una unidad de disco duro son:

LOS DISCOS (Platters)
Están elaborados de compuestos de vidrio, cerámica o aluminio finalmente pulidos y revestidos por ambos lados con una capa muy delgada de una aleación metálica. Los discos están unidos a un eje y un motor que los hace guiar a una velocidad constante entre las 3600 y 7200 RPM. Convencionalmente los discos duros están compuestos por varios platos, es decir varios discos de material magnético montados sobre un eje central. Estos discos normalmente tienen dos caras que pueden usarse para el almacenamiento de datos, si bien suele reservarse una para almacenar información de control.






LAS CABEZAS (Heads)
Están ensambladas en pila y son las responsables de la lectura y la escritura de los datos en los discos. La mayoría de los discos duros incluyen una cabeza Lectura/Escritura a cada lado del disco, sin embargo algunos discos de alto desempeño tienen dos o más cabezas sobre cada superficie, de manera que cada cabeza atiende la mitad del disco reduciendo la distancia del desplazamiento radial. Las cabezas de Lectura/Escritura no tocan el disco cuando este esta girando a toda velocidad; por el contrario, flotan sobre una capa de aire extremadamente delgada(10 millonésima de pulgada). Esto reduce el desgaste en la superficie del disco durante la operación normal, cualquier polvo o impureza en el aire puede dañar suavemente las cabezas o el medio. Su funcionamiento consiste en una bobina de hilo que se acciona según el campo magnético que detecte sobre el soporte magnético, produciendo una pequeña corriente que es detectada y amplificada por la electrónica de la unidad de disco.
EL EJE
Es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco.




"ACTUADOR" (actuator)
Es un moto
r que mueve la estructura que contiene las cabezas de lectura entre el centro y el borde externo de los discos. Un "actuador" usa la fuerza de un electromagneto empujado contra magnetos fijos para mover las cabezas a través del disco. La controladora manda más corriente a través del electromagneto para mover las cabezas cerca del borde del disco. En caso de una perdida de poder, un resorte mueve la cabeza nuevamente hacia el centro del disco sobre una zona donde no se guardan datos. Dado que todas las cabezas están unidas al mismo “rotor” ellas se mueven al unísono. Mientras que lógicamente la capacidad de un disco duro puede ser medida según los siguientes parámetros:


Cilindros (cylinders)
El par de pistas en lados opuestos del disco se llama cilindro. Si el HD contiene múltiples discos (sean n), un cilindro incluye todos los pares de pistas directamente uno encima de otra (2n pistas).Los HD normalmente tienen una cabeza a cada lado del disco. Dado que las cabezas de Lectura/Escritura están alineadas unas con otras, la controladora puede escribir en todas las pistas del cilindro sin mover el rotor. Como resultado los HD de múltiples discos se desempeñan levemente más rápido que los HD de un solo disco.


Pistas (tracks)
Un disco está dividido en delgados círculos concéntricos llamados pistas. Las cabezas se mueven entre la pista más externa ó pista cero a la mas interna. Es la trayectoria circular trazada a través de la superficie circular del plato de un disco por la cabeza de lectura / escritura. Cada pista está formada por uno o más Cluster.


Sectores (sectors)
Un byte es la unidad útil más pequeña en términos de memoria. Los HD almacenan los datos en pedazos gruesos llamados sectores. La mayoría de los HD usan sectores de 512 bytes. La controladora del H D determina el tamaño de un sector en el momento en que el disco es formateado. Algunos modelos de HD le permiten especificar el tamaño de un sector. Cada pista del disco esta dividida en 1 ó 2 sectores dado que las pistas exteriores son más grandes que las interiores, las exteriores contienen mas sectores.


Cluster
Es una agrupación de sectores, su tamaño depende de la capacidad del disco. La siguiente tabla nos muestra esta relación.


MEDIDAS QUE DESCRIBEN EL DESEMPEÑO DE UN HD
Los fabricantes de HD miden la velocidad en términos de tiempo de acceso, tiempo de búsqueda, latencia y transferencia. Estas medidas también aparecen en las advertencias, comparaciones y en las especificaciones. Tiempo de acceso (access time) Termino frecuentemente usado en discusiones de desempeño, es el intervalo de tiempo entre el momento en que un drive recibe un requerimiento por datos, y el momento en que un drive empieza a despachar el dato. El tiempo de acceso de un HD es una combinación de tres factores:






1- Tiempo de Búsqueda (seek time)
Es el tiempo que le toma a las cabezas de Lectura/Escritura moverse desde su posición actual hasta la pista donde esta localizada la información deseada. Como la pista deseada puede estar localizada en el otro lado del disco o en una pista adyacente, el tiempo de búsqueda variara en cada búsqueda. En la actualidad, el tiempo promedio de búsqueda para cualquier búsqueda arbitraria es igual al tiempo requerido para mirar a través de la tercera parte de las pistas. Los HD de la actualidad tienen tiempos de búsqueda pista a pista tan cortos como 2 milisegundos y tiempos promedios de búsqueda menores a 10 milisegundos y tiempo máximo de búsqueda (viaje completo entre la pista más interna y la más externa) cercano a 15 milisegundos .
2- Latencia (latency)
Cada pista en un HD contiene múltiples sectores una vez que la cabeza de Lectura/Escritura encuentra la pista correcta, las cabezas permanecen en el lugar e inactivas hasta que el sector pasa por debajo de ellas. Este tiempo de espera se llama latencia. La latencia promedio es igual al tiempo que le toma al disco hacer media revolución y es igual en aquellos drivers que giran a la misma velocidad. Algunos de los modelos más rápidos de la actualidad tienen discos que giran a 10000 RPM o más reduciendo la latencia.
3- Command Overhead
Tiempo que le toma a la controladora procesar un requerimiento de datos. Este incluye determinar la localización física del dato en el disco correcto, direccionar al "actuador" para mover el rotor a la pista correcta, leer el dato, redireccionarlo al computador.








COMO FUNCIONA UN DISCO DURO.
1. Una caja metálica hermética protege los componentes internos de las partículas de polvo; que podrían obstruir la estrecha separación entre las cabezas de lectura/escritura y los discos, además de provocar el fallo de la unidad a causa de la apertura de un surco en el revestimiento magnético de un disco. 2. En la parte inferior de la unidad, una placa de circuito impreso, conocida también como placa lógica, recibe comandos del controlador de la unidad, que a su vez es controlado por el sistema operativo. La placa lógica convierte estos comandos en fluctuaciones de tensión que obligan al actuador de las cabezas a mover estas a lo largo de las superficies de los discos. La placa también se asegura de que el eje giratorio que mueve los discos de vueltas a una velocidad constante y de que la placa le indique a las cabezas de la unidad en que momento deben leer y escribir en el disco. En un disco IDE (Electrónica de Unidades Integradas), el controlador de disco forma parte de la placa lógica. 3. Un eje giratorio o rotor conectado a un motor eléctrico hacen que los discos revestidos magnéticamente giren a varios miles de vueltas por minuto. El número de discos y la composición del material magnético que lo s recubre determinan la capacidad de la unidad. Generalmente los discos actuales están recubiertos de una aleación de aproximadamente la trimillonésima parte del grosor de una pulgada. 4. Un actuador de las cabezas empuja y tira del grupo de brazos de las cabezas de lectura/escritura a lo largo de las superficies de los platos con suma precisión. Alinea las cabezas con las pistas que forman círculos concéntricos sobre la superficie de los discos. 5. Las cabezas de lectura/escritura unidas a los extremos de los brazos móviles se deslizan a la vez a lo largo de las superficies de los discos giratorios del HD. Las cabezas escriben en los discos los datos procedentes del controlador de disco alineando las partículas magnéticas sobre las superficies de los discos; las cabezas leen los datos mediante la detección de las polaridades de las partículas ya alineadas. 6. Cuando el usuario o su software le indican al sistema operativo que lea o escriba un archivo, el sistema operativo ordena al controlador del HD que mueva las cabezas de lectura y escritura a la tabla de asignación de archivos de la unidad, o FAT en DOS (VFAT en Windows 95). El sistema operativo lee la FAT para determinar en que Cluster del disco comienza un archivo preexistente, o que zonas del disco están disponibles para albergar un nuevo archivo. 7. Un único archivo puede diseminarse entre cientos de Cluster independientes dispersos a lo largo de varios discos. El sistema operativo almacena el comienzo de un archivo en los primeros Cluster que encuentra enumerados como libres en la FAT. Esta mantiene un registro encadenado de los Cluster utilizados por un archivo y cada enlace de la cadena conduce al siguiente Cluster que contiene otra parte mas del archivo. Una vez que los datos de la FAT han pasado de nuevo al sistema operativo a través del sistema electrónico de la unidad y del controlador del HD, el sistema operativo da instrucciones a la unidad para que omita la operación de las cabezas de lectura/escritura a lo largo de la superficie de los discos, leyendo o escribiendo los Cluster sobre los discos que giran después de las cabezas. Después de escribir un nuevo archivo en el disco, el sistema operativo vuelve a enviar las cabezas de lectura/escritura a la FAT, donde elabora una lista de todos los Cluster del archivo.
INTERFAZ ENHANCED INTEGRATED DRIVE ELECTRONICS (EIDE)
La norma IDE fue desarrollada por Western Digital y Compaq Computers a partir de una interfaz de disco del AT original que IBM creó en 1984. Desde entonces se convirtió en la interfaz más utilizada en el entorno PC. A pesar de esto IDE presenta unas limitaciones debido a su dependencia de la BIOS y al diseño del que parte. Hace poco las limitaciones en el tamaño de los HD y la velocidad de transferencia no daban problemas, pero como se han mejorado los procesadores y han salido programas más complejos, ya se notan.
Entonces se hizo un mejoramiento de las normas IDE y surgió Enhanced IDE, por cierto la nomenclatura de estas normas son similares a las de SCSI. Así, partiendo de la interfaz establecido de IDE llamado ATA (AT Attachment) surge ATA-2 y ATAPI (ATA Packed Interfaz), que permite conectar unidades de CD-ROM a controladores ATA.
ATA-2 se encuentra en proceso de normalización, permite alcanzar 16.6 Mbps (según el tipo de periférico que prestan las E/S); según su esquema de translación de direcciones se pueden encontrar dos métodos en ATA-2:
- Mediante el tradicional sistema de cilindros/Cabezas/Sectores (CHS). De esta forma se transforman los parámetros de CHS de la Bios en los de la unidad. Como ventaja tiene su sencillez.
- Mediante LBA(Logical Block Address). Consiste en transformar los parámetros CHS en una dirección de 28 bits que puede ser usada por el sistema Operativo, los drives de los dispositivos, etc.
En ambos casos se necesita una BIOS extra para permitir superar la limitación de 528 Mb.



DEFINICIONES DE TERMINOS
ATA (AT Attachment), dispositivo de AT. Es el dispositivo IDE que más se usa en la actualidad, por los que a veces se confunde con el propio IDE. Originalmente se creó para un bus ISA de 16 bits.
ATAPI (ATA PACKET INTAERFACE), Interfaz de paquete ATA. Es una extensión del protocolo ATA para conseguir una serie de comandos y registros que controlen el funcionamiento de un CD-ROM, es fácilmente adaptable para una cinta de Backup.
DMA (DIRECT MEMORY ACCESS), Acceso directo a memoria. Componente integrado en un periférico que libera al procesador en la tarea de transferir datos entre dispositivos y memoria. El acceso se realiza por bloque de datos.
PIO (PROGRAMABLE INPUT/OUTPUT), Entrada/Salida programable. Componente encargado de ejecutar las instrucciones dirigidas a los periféricos. A diferencia de la DMA requiere atención del procesador para su funcionamiento. Como contrapartida es mucho más sencillo y barato.
Controladoras
La interface es la conexión entre el mecanismo de la unidad de disco y el bus del sistema. Define la forma en que las señales pasan entre el bus del sistema y el disco duro. En el caso del disco, se denomina controladora o tarjeta controladora, y se encarga no sólo de transmitir y transformar la información que parte de y llega al disco, sino también de seleccionar la unidad a la que se quiere acceder, del formato, y de todas las órdenes de bajo nivel en general. La controladora a veces se encuentra dentro de la placa madre.
Se encuentran gobernados por una controladora y un determinado interface que puede ser:
· ST506: Es un interface a nivel de dispositivo; el primer interface utilizado en los PC’s. Proporciona un valor máximo de transferencia de datos de menos de 1 Mbyte por segundo. Actualmente esta desfasado y ya no hay modelos de disco duro con este tipo de interface.
· ESDI: Es un interface a nivel de dispositivo diseñado como un sucesor del ST506 pero con un valor más alto de transferencia de datos (entre 1,25 y 2.5 Mbytes por segundo).Ya ha dejado de utilizarse este interface y es difícil de encontrar.

· IDE: Es un interface a nivel de sistema que cumple la norma ANSI de acoplamiento a los AT y que usa una variación sobre el bus de expansión del AT (por eso también llamados discos tipo AT) para conectar una unidad de disco a la CPU, con un valor máximo de transferencia de 4 Mbytes por segundo. En principio, IDE era un término genérico para cualquier interface a nivel de sistema. La especificación inicial de este interface está mal definida. Es más rápida que los antiguos interfaces ST506 y ESDI pero con la desaparición de los ATs este interface desaparecerá para dejar paso al SCSI y el SCSI-2.
Íntimamente relacionado con el IDE, tenemos lo que se conoce como ATA, concepto que define un conjunto de normas que deben cumplir los dispositivos. Años atrás la compañía Western Digital introdujo el standard E-IDE (Enhanced IDE), que mejoraba la tecnología superando el límite de acceso a particiones mayores de 528 Mb. y se definió ATAPI, normas para la implementación de lectores de CD-ROM y unidades de cinta con interfaz IDE. E-IDE se basa en el conjunto de especificaciones ATA-2. Como contrapartida comercial a E-IDE, la empresa Seagate presento el sistema FAST-ATA-2, basado principalmente en las normas ATA-2. En cualquier caso a los discos que sean o bien E-IDE o FAST-ATA, se les sigue aplicando la denominación IDE como referencia. Para romper la barrera de los 528 Mb. las nuevas unidades IDE proponen varias soluciones:
* El CHS es una traducción entre los parámetros que la BIOS contiene de cilindros, cabezas y sectores (ligeramente incongruentes) y los incluidos en el software de sólo lectura (Firmware) que incorpora la unidad de disco.
* El LBA (dirección lógica de bloque), estriba en traducir la información CHS en una dirección de 28 bits manejables por el sistema operativo, para el controlador de dispositivo y para la interfaz de la unidad.
Debido a la dificultad que entraña la implemetación de la compatibilidad LBA en BIOS, muchos de los ordenadores personales de fabricación más reciente continúan ofreciendo únicamente compatibilidad con CHS. El techo de la capacidad que permite las solución CHS se sitúa en los 8,4 Gb, que por el momento parecen suficientes.



· SCSI: Es un interface a nivel de sistema, diseñado para aplicaciones de propósito general, que permite que se conecten hasta siete dispositivos a un único controlador. Usa una conexión paralela de 8 bits que consigue un valor máximo de transferencia de 5 Mbytes por segundo. Actualmente se puede oír hablar también de SCSI-2 que no es más que una versión actualizada y mejorada de este interface. Es el interface con más futuro, si bien tiene problemas de compatibilidad entre las diferentes opciones de controladoras, discos duros, impresoras, unidades de CD-ROM y demás dispositivos que usan este interface debido a la falta de un estándar verdaderamente sólido.
Las mejoras del SCSI-2 sobre el SCSI tradicional son el aumento de la velocidad a través del bus, desde 5 Mhz a 10 Mhz, duplicando de esta forma el caudal de datos. Además se aumenta el ancho del bus de 8 a 16 bits, doblando también el flujo de datos. Actualmente se ha logrado el ancho de 32 bits, consiguiendo velocidades teóricas de hasta 40 Mbytes / seg.
Los interfaces IDE y SCSI llevan la electrónica del controlador en el disco, por lo que el controlador realmente no suele ser mas que un adaptador principal para conectar el disco al PC. Como se puede ver unos son interfaces a nivel de dispositivo y otros a nivel de sistema, la diferencia entre ambos es:
INTERFACE A NIVEL DE DISPOSITIVO: Es un interface que usa un controlador externo para conectar discos al PC. Entre otras funciones, el controlador convierte la ristra de datos del disco en datos paralelos para el bus del microprocesador principal del sistema. ST506 y ESDI son interfaces a nivel de dispositivo.
INTERFACE A NIVEL DE SISTEMA: Es una conexión entre el disco duro y su sistema principal que pone funciones de control y separación de datos sobre el propio disco (y no en el controlador externo), SCSI e IDE son interfaces a nivel de sistema.





Distribución de la Información : Grabación y Acceso.

Para grabar información en la superficie, se siguen una serie de códigos, que transforman un patrón de bits en una secuencia de celdas con diferentes estados de magnetización.
Procesos de grabación
· GCR (Group Coding Recording - Codificación de grupo de grabación) Es un proceso de almacenamiento en el que los bits se empaquetan como grupos y son almacenados bajo un determinado código.

· ZBR (Zone Bit Recording) Es un proceso de almacenamiento que coloca más sectores sobre las pistas exteriores del disco que son más largas, pero mantienen un valor cons­tante de rotación. Esta diseñado para colocar más datos sobre el disco, sólo puede usarse con interfaces inteligentes.
Proceso de Codificación
· FM: Es la codificación más sencilla, consiste en la grabación de un cambio de flujo para cada uno, y el omitir el cambio de flujo para cada cero. Este procedimiento se puede realizar con una electrónica de control relativamente simple, pero tiene el inconveniente de que cada bit de datos consume dos cambios de flujo, limitando mucho la capacidad del disco.
· MFM (Modified Frequency Modulation - Modulación de frecuencia modificada) Método de codi­ficación magnética de la información que crea una correspondencia 1 a 1 entre los bits de datos y transiciones de flujo (cambios magnéticos) sobre un disco. Emplea una menor densi­dad de almacenamiento y presenta una velocidad más baja de transferencia que el RLL.
Esta tecnología es usada en los discos flexibles y en los primeros discos duros. Cada bit de datos es almace­nado sobre una región física lo suficientemente grande para contener 2 posibles posicio­nes 00, 01 ó 10. Entre cada 2 bits de datos hay un bit que se llama de “re­loj” y que se usa para vali­dar las lecturas, así como para sincronizarlas. Este bit hace que sea uno cuando está situa­do entre 2 bits de datos a cero y se hace cero cuando está situa­do entre cual­quier otra combinación de bits de datos. Así se hace imposible que se puedan leer más de 3 bits conse­cutivos con un valor de cero, o mas de un bit seguido a uno. Esto es cierto para todas las informaciones almacena­das en el disco excepto para las áreas de con­trol del mismo cuyas marcas de comienzo de pista, sector y datos tienen 4 bits consecuti­vos a cero en su “adress mark”. Evidentemen­te, estos sistemas, aunque fiables, son unos grandes consumidores de espacio ya que emplean prácticamente la mitad del espacio en bits de reloj.
· RLL: (Run Length Limited - Longitud recorrido limitado) Método de codificar la informa­ción magnéticamente que usa GCR para almacenar bloques en vez de bits individua­les de datos. Per­mite densidades mayores de almacenamiento y velocidades mas altas de transferencia que MFM. En la práctica, permite incrementar en un 50% la capacidad de un disco respecto al sistema de grabación MFM. Los métodos de grabación RLL utilizan un conjunto complejo de reglas para determinar el patrón de pulsos para cada bit basado en los valores de los bits precedentes. Este sistema se puede clasificar dependiendo de la distancia máxima y mínima de silencios entre dos pulsos, por ejemplo; el RLL 2,7 tiene una distancia mínima entre pulsos de 2 silencios y una máxima de 7.
Datos de control del disco
Es casi imposible evitar impurezas en la superficie magnética del disco, esto provoca que existan determinados sectores que son defectuosos.
En los antiguos discos estos sectores venían apuntados por el control de calidad del fabricante del disco. En el formateo de bajo nivel, el usuario debería indicárselos al programa formateador. En los modernos, las direcciones de estos sectores se graban en pistas especiales o se reconocen durante el formateo a bajo nivel del disco, estos sectores se saltan o bien son sustituidos por otros que están en zonas protegidas. Es allí donde se guardan las tablas que marcan los sectores defectuosos y sus sustituciones. Esto disminuye el acceso al disco duro, pero teniendo en cuenta que el porcentaje de sectores defectuosos es mínimo, prácticamente no tiene importancia.
Hay que tener en cuenta que no toda la información que se encuentra en la superficie de los discos son datos, existen zonas donde se almacena información de control.
Entre la información que se encuentran dentro de un sector:
· Numero de sector y cilindro
· El ECC (Error Correction Code) DATA.
· La zona de datos
· Zonas de separación entre zonas o entre pistas


También existen pistas extra donde se recogen otras informaciones como:
· Pistas “servo” donde se guardan cambios de flujo según un esquema determinado, para la sincronización al pulso de datos, necesario para la correcta compresión de las informaciones en RLL.
· Pistas de reserva, normalmente usadas como reserva de sectores defectuosos.
· Pistas de aparcamiento, usadas para retirar los cabezales evitando así choques del cabezal con la superficie con datos ante vibraciones o golpes de la unidad.
Tiempos de acceso, Velocidades y su medición
Existen una serie de Factores de Velocidad relacionados con los discos duros que son necesarios conocer para comprender su funcionamiento y sus diferencias.
· Tiempo de búsqueda de pista a pista : intervalo de tiempo necesario para desplazar la cabeza de lectura y escritura desde una pista a otra adyacente.
· Tiempo medio de acceso : tiempo que tarda, como media, para desplazarse la cabeza a la posición actual. Este tiempo promedio para acceder a una pista arbitraria es equi­valente al tiempo necesario para desplazarse sobre 1/3 de las pistas del disco duro. El antiguo IBM PC/XT utilizaba discos de 80 a 110 milisegundos, mientras que los AT usaban discos de 28 a 40 milisegundos, y los actuales sistemas 386, 486 y PENTIUMÒ usan discos de menos de 20 milisegundos.
· Velocidad de Rotación: Número de vueltas por minuto (RPM) que da el disco.
· Latencia Promedio : Es el promedio de tiempo para que el disco una vez en la pista correc­ta encuentre el sector deseado, es decir el tiempo que tarda el disco en dar media vuelta. Velocidad de transferencia : velocidad a la que los datos (bits) pueden transferirse desde el disco a la unidad central. Depende esencialmente de dos factores : la velocidad de rota­ción y la densidad de almacenamiento de los datos en una pista
3600 rpm = 1 revolución cada 60/3600 segundos (16,66 milisegundos)
Si calculamos el tiempo de ½ vuelta --> Latencia Promedio 8,33 milisegundos

· Buffer De Pista: Es una memoria incluida en la electrónica de las unidades de disco, que almacena el contenido de una pista completa. Así cuando se hace una petición de lectura de una pista, esta se puede leer de una sola vez, enviando la información a la CPU, sin necesidad de interleaving.
· Cachés De Disco: Pueden estar dentro del propio disco duro, en tarjetas especiales o bien a través de programas usar la memoria central. La gestión de esta memoria es completamente invisible y consiste en almacenar en ella los datos más pedidos por la CPU y retirar de ella aquellos no solici­tados en un determinado tiempo. Se usan para descargar al sistema de las lentas tareas de escritura en disco y aumentar la velocidad.
Aparte de la velocidad del disco duro y de la controladora la forma en que se transfieren los datos de ésta a la memoria deciden también la velocidad del sistema. Se pueden emplear 4 métodos:
· Programed I/O (Pio Mode): La transferencia de datos se desarrolla a través de los diferentes puerto I/O de la controladora que también sirven para la transmisión de comandos (IN / OUT). La tasa de transferencia está limitada por los valores del bus PC, y por el rendimiento de la CPU. Se pueden lograr transferencias de 3 a 4 Mbytes. Con el modo de transferencia PIO 4, que es el método de acceso que actualmente utilizan los discos más modernos, es posible llegar a tasas de transferencia de 16,6 Mbytes / seg.
· Memory mapped I/O: La CPU puede recoger los datos de la controladora de forma más rápida, si los deja en una zona de memoria fija, ya que entonces se puede realizar la transferencia de los datos a una zona de memoria del programa correspondiente con la introducción MOV, más rápida que los accesos con IN y OUT. El valor teórico máximo es de 8 Mbytes / seg.
· DMA: Es la transferencia de datos desde el disco a la memoria evitando pasar por la CPU. La ventaja de usar el DMA es que se libera al procesador para trabajar en otras tareas mientras las transferencias de datos se realizan por otro lado. El DMA además de ser inflexible es lento, no se puede pasar de más de 2 Mb. por segundo.



· Bus Master DMA: En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un cotrolador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb. por segundo.
Últimas Tecnologías y Tendencias
La aceleración del los nuevos disco IDE se basan en dos métodos:
· Con el control de flujo a través de IORDY (en referencia a la línea de bus ATA “ Canal de e/s preparado” se acelera el control PIO. Gracias al control de flujo, la parte electrónica de la unidad de disco puede regular las funciones de transferencia de datos del microprocesador, y el disco duro puede comunicarse con el bus a mayor velocidad de manera fiable. El standard PIO modo 3 tiene una transferencia teórica máxima de 11,1 Mbytes / seg., el nuevo PIO modo 4 de 16,6 Mbytes, y el futuro PIO modo 5 promete hasta 33 Mbytes / seg.
· El otro método alternativo denominado FAST Multiword DMA con el controlador DMA (acceso directo a memoria) sustituye al procesador en el gobierno de las transferencias de datos entre el disco duro y la memoria del sistema. SSF define que el Modo 1 de transferencias DMA soporte velocidades internas de hasta 13,3 Mbps, lo que es equiparable a los resultados del control PIO en modo 3.
Los disco duros de hoy (especialmente los de mañana) se adentran en complicadas tecnologías y campos científicos (mecánica cuántica, aerodinámica, y elevadas velocidades de rotación). La combinación de estas tecnologías permite que la capacidad de los discos duros aumente cerca de un 60 % cada año; cada cinco años se multiplica por diez su capacidad. Los analistas esperan que este ritmo de crecimiento no se mantenga hasta finales de siglo.
Para mejorar las posibilidades del disco duro hay que acercar los cabezales a la superficie del disco. Los cabezales pueden escribir y leer dominios magnéticos menores, cuanto menor sean éstos mayor densidad de datos posible de cada plato. Pero cuanto más cerca estén los cabezales, mayor será la probabilidad de colisión con la superficie. Una solución es recubrir el plato con materiales protectores, rediseñar las características aerodinámicas de los cabezales, etc. Además el paso de una mayor cantidad de datos por los cabezales exige perfeccionar los componentes electrónicos, e incluso puede obligar a ampliar la memoria caché integrada . Además no hay que olvidar que los dominios menores son estables a las temperaturas de funcionamiento normales. Y todo esto a un precio competitivo.
Ejemplo de nuevos diseños es la tecnología MR (Magnetoresistiva) de IBM que utiliza nuevos materiales. Usa cabezales con mejor relación señal /ruido que los de tipo inductivo, separando los de lectura de los de escritura. Pueden trabajar con dominios magnéticos menores aumentando la densidad de almacenamiento. Además son menos sensibles al aumento de la velocidad permitiendo velocidades de rotación mayores. Sus inconvenientes son su dificultad y alto precio de fabricación, y su sensibilidad ante posibles cargas eléctricas. Se investiga en una mejora llamada GMR (MR Gigante) que emplea el efecto túnel de electrones de la mecánica cuántica.
Nuevas tecnologías van encaminadas a potenciar la resistencia de la superficie magnética de los platos con materiales antiadherentes derivados del carbono. Esto junto con las técnicas de cabezales de grabación en proximidad, los TRI-PAD (cabezales trimorfos) y los de contacto virtual permiten acercar los cabezales hasta incluso entrar ocasionalmente en contacto con la superficie del plato.

A través de la técnica de carga dinámica del cabezal se garantiza la distancia de vuelo del cabezal respecto a la superficie, usando zonas de seguridad y cierres inerciales en las cabezas. Así no se necesita una preparación especial de la superficie del plato.
Estructura Lógica De Los Discos Duros
Lo que interrelaciona los discos duros con los disquetes, es su estructura, que se resumen en diferentes funciones del BIOS, que sirven entre otras cosas para el acceso a los mismos.
En primer lugar, internamente los discos duros se pueden dividir en varios volúmenes homogéneos. Dentro de cada volumen se encuentran una estructura que bajo el sistema operativo del Ms-Dos, sería la siguiente:
Sector de Arranque.
Primera tabla de localización de archivos (FAT).
Una o más copias de la FAT.
Directorio Raíz (eventualmente con etiqueta de volumen).
Zona de datos para archivos y subdirectorios.

Como se muestra en el cuadro anterior, cada volumen se divide en diferentes zonas que por una parte acogen las diferentes estructuras de datos del sistema de archivos, y por otra los diferentes archivos y subdirectorios. En dicho cuadro no se han hecho referencia al tamaño de las diferentes estructuras de datos y zonas. Pero no es posible describirlas, ya que se adaptan individualmente al tamaño del volumen correspondiente
· El Sector de Arranque : Al formatear un volumen, el sector de arranque se crea siempre como primer sector del volumen, para que sea fácil de localizar por el DOS. En él se encuentra información acerca del tamaño, de la estructura del volumen y sobre todo del BOOTSTRAP-LOADER, mediante el cual se puede arrancar el PC desde el DOS. A ésta parte se le llama sector de arranque (BOOT).
· La Tabla de Asignación de Ficheros (File Allocation Table) (FAT) : Si el DOS quiere crear nuevos archivos, o ampliar archivos existentes, ha de saber qué sectores del volumen correspondiente quedan libres, Estas informaciones las toma la llamada FAT. Cada entrada a esta tabla se corresponde con un número determinado de sectores, que son adyacentes lógicamente en el volumen. Cada uno de estos grupos de sectores se llama Cluster. El tamaño de las diferentes entradas de esta tabla en las primeras versiones del DOS era de 12 bits. con lo que se podían gestionar hasta 4.096 Clusters, correspondiente a una capacidad aproximada de 8 Mbytes. En vista del problema que surgió al aparecer discos duros de capacidades más elevadas, se amplió el tamaño a 16 bits., permitiendo el direccionamiento de un máximo de 65.535 Clusters. Actualmente se está creando FAT’s de hasta 32 bits, para discos duros capaces de almacenar Gigas de información.
· Una o más copias de la FAT : El DOS permite a un programa de formateo crear no sólo una, sino varias copias idénticas de la FAT. Si el DOS encuentra uno de estos medios, cuida todas las copias de la FAT simultáneamente, así que guarda allí los nuevos clusters ocupados o liberados al crear o borrar archivos. Esto ofrece la ventaja de que se puede sustituir la FAT primaria en caso de defecto por una de sus copias, para evitar la pérdida de datos.



· El directorio Raíz : La cantidad máxima de entradas en el directorio raíz se limita por su tamaño, que se fija en el sector de arranque. Ya que el directorio raíz representa una estructura de datos estática, que no crece si se guardan más y más archivos o subdirectorios. De ahí que, dependiendo del tamaño, bien un disco duro o bien de volumen, se selecciona el tamaño del directorio raíz en relación al volumen.
· La Zona de Datos : Es la parte del disco duro en la que se almacena los datos de un archivo. Esta zona depende en casi su totalidad de las interrelaciones entre las estructuras de datos que forman el sistema de archivos del DOS, y del camino que se lleva desde la FAT hacia los diferentes sectores de un archivo.
Interfaces: ST506, MFM y RLL
Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera.
Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora.
La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almacenamiento. También la trasa de transferencia es superior en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la misma en ambos casos: 3600 rpm.
En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL




ESDI
Con esta interfaz, “Enhanced Small Devices Interface” (interfaz mejorada para dispositivos pequeños), se daba un paso adelante. Para empezar, una parte de la lógica decodificadora de la controladora se implementó en la propia unidad, lo que permitió elevar el ratio de transferencia a 10 Mbits por segundo. Asimismo, se incluyó un pequeño buffer de sectores que permitía transferir pistas completas en un único giro o revolución del disco.
No obstante, estas unidades no se extendieron demasiado, y únicamente compañías como IBM (muy aficionadas a tecnologías propietarias) fueron las que más lo emplearon en sus máquinas. Estas unidades no solían tener una capacidad superior a 630 Megas, y en cualquier caso se trató más bien de una tecnología de transición, ya que un tiempo después tuvo lugar el salto cuantitativo y cualitativo con la interfaz que detallamos a continuación.

El estándar IDE
“Integrated Drive Electronics”, o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo.
IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado “Modos de Transferencia”. La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.


No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado “El papel de la BIOS”) no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó?


Enhanced IDE
La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.
Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio.






Modos de transferencia
Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo.
Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base.
Otros términos
EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo de 16,6 Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/escritura; es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32) en una sola interrupción, lo que permite optimizar la transferencia incluso en buses lentos, como ISA.
Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor de los casos, y no siempre son sostenidas, es decir, que suelen ser “picos” de transferencia.


Es preciso también abordar en esta introducción a los discos duros otro término muy conocido; ya hemos comentado que EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA.


Buffer y caché
Prácticamente todos los discos duros incluyen una memoria buffer, en la que almacenan los últimos sectores leídos; ésta, que puede ser desde 2 Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso imprescindible para poder mantener altas cotas de transferencia. Se la denomina caché cuando incluyen ciertas características de velocidad; concretamente, los procesos se optimizan cuando el sistema vuelve de una operación de copiado de datos a la unidad sin esperar a que ésta haya finalizado. También utilizan otra técnica diferente consistente en que la unidad informa de la finalización de una operación de escritura en el momento de recibir los datos, antes de comenzar a grabarlos en el disco. De esta manera no se producen estados de espera; tras todo lo comentado hasta este momento, podemos decir, resumiendo, que un caché amplio en un disco duro es absolutamente imprescindible.




Otras formas de usar un disco duro
Si hay algo que resulta evidente, es que el disco duro siempre almacena una valiosa información, y de su buen funcionamiento depende la integridad de los datos. Si esto es importante en el ámbito particular, imaginad a un nivel de entidades bancarias, grandes empresas, administraciones públicas o ejército, cuyas instalaciones informáticas normalmente son redes basadas en un servidor central. Si ese disco duro falla, el resultado puede ser catastrófico.
Por este motivo, surge el término SFT (Sistema tolerante a fallos, o System Fault Tolerance); se basa en el concepto de mantener tanto la integridad de los datos cómo el correcto funcionamiento del sistema, en el caso de un fallo de hardware. Este concepto aporta un nuevo término, RAID (Redundant Array of Inexpensive Disks); se puede traducir como Matriz Redundante de Discos Baratos, y sus diferentes modos de implementación forman las llamados niveles RAID. Aunque existen multitud de niveles, tocaremos más bien el concepto genérico; este se basa en utilizar varios discos duros, conectados entre sí (aunque el sistema cree que sólo existe uno), y que almacenan duplicados de la información principal. Por tanto, si uno de ellos cae, el sistema no se paraliza puesto que tenemos otros discos para sustituirlo, y, además, con la información totalmente intacta.
Existen numerosísimas formas de implementar la tolerancia a fallos, tanto por hardware como por software; podemos citar por ejemplo, el Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye entre los diferentes discos intalados), el Disk Mirroring (crea una copia exacta, un espejo, del disco principal en otro secundario) y su variante Disk Duplexing (añade una controladora para gestionar el disco secundario y así reducir el tráfico) o el Disk Striping with Parity (variante del Striping, que añade también información de paridad a los datos guardados, empleada para recuperar la información en una hipotética pérdida de la misma). Por último, la técnica de Sector Sparing consiste en, tras la detección de un sector defectuoso del disco, sacar la información del mismo, colocarla en un sector bueno y marcar como defectuoso el sector erróneo.
Por supuesto, todas estas técnicas se efectúan en tiempo real, y normalmente son los sistemas operativos de red (como Windows NT Server o Novell Netware) los encargados de soportarlas. Asimismo, se emplean casi siempre discos SCSI debido a sus características, como flexibilidad o capacidad de ampliación; incluso técnicas como el Sector Sparing deben ser usadas en discos SCSI, puesto que es imposible aplicarlas con dispositivos IDE.

Notas: capacidad indica la cantidad máxima (en Megabytes) que puede controlar el sistema. Tasa de transferencia expresada en Megabits segundo (Mg/s) y en Megabytes por segundo (Mb/s). Tiempo de acceso expresado en milisegundos. Puede variar según fabricantes
Factor de forma
El más temprano "factor de forma" de los discos duros, heredó sus dimensiones de las disqueteras. Pueden ser montados en los mismos chasis y así los discos duros con factor de forma, pasaron a llamarse coloquialmente tipos FDD "floppy-disk drives" (en inglés).
La compatibilidad del "factor de forma" continua siendo de 3½ pulgadas (8,89 cm) incluso después de haber sacado otros tipos de disquetes con unas dimensiones más pequeñas.
8 pulgadas: 241,3×117,5×362 mm (9,5×4,624×14,25 pulgadas).En 1979,
Shugart Associates sacó el primer factor de forma compatible con los disco duros, SA1000, teniendo las mismas dimensiones y siendo compatible con la interfaz de 8 pulgadas de las disqueteras. Había dos versiones disponibles, la de la misma altura y la de la mitad (58,7mm).



5,25 pulgadas: 146,1×41,4×203 mm (5,75×1,63×8 pulgadas). Este factor de forma es el primero usado por los discos duros de Seagate en 1980 con el mismo tamaño y altura máxima de los FDD de 5¼ pulgadas, por ejemplo: 82,5 mm máximo.Éste es dos veces tan alto como el factor de 8 pulgadas, que comúnmente se usa hoy; por ejemplo: 41,4 mm (1,64 pulgadas). La mayoría de los modelos de unidades ópticas (
DVD/CD) de 120 mm usan el tamaño del factor de forma de media altura de 5¼, pero también para discos duros. El modelo Quantum Bigfoot es el último que se usó a finales de los 90'.
3,5 pulgadas: 101,6×25,4×146 mm (4×1×5.75 pulgadas).Este factor de forma es el primero usado por los discos duros de Rodine que tienen el mismo tamaño que las disqueteras de 3½, 41,4 mm de altura. Hoy ha sido en gran parte remplazado por la línea "slim" de 25,4mm (1 pulgada), o "low-profile" que es usado en la mayoría de los discos duros.
2,5 pulgadas: 69,85×9,5-15×100 mm (2,75×0,374-0,59×3,945 pulgadas).Este factor de forma se introdujo por PrairieTek en 1988 y no se corresponde con el tamaño de las lectoras de disquete. Este es frecuentemente usado por los discos duros de los equipos móviles (portátiles, reproductores de música, etc...) y en 2008 fue reemplazado por unidades de 3,5 pulgadas de la clase multiplataforma. Hoy en día la dominante de este factor de forma son las unidades para portátiles de 9,5 mm, pero las unidades de mayor capacidad tienen una altura de 12,5 mm.
1,8 pulgadas: 54×8×71 mm.Este factor de forma se introdujo por Integral Peripherals en 1993 y se involucró con ATA-7 LIF con las dimensiones indicadas y su uso se incrementa en
reproductores de audio digital y su subnotebook. La variante original posee de 2GB a 5GB y cabe en una ranura de expansión de tarjeta de ordenador personal. Son usados normalmente en iPods y discos duros basados en MP3.
1 pulgadas: 42,8×5×36,4 mm.Este factor de forma se introdujo en 1999 por
IBM y Microdrive, apto para los slots tipo 2 de compact flash, Samsung llama al mismo factor como 1,3 pulgadas.



0,85 pulgadas: 24×5×32 mm.
Toshiba anunció este factor de forma el 8 de enero de 2004 para usarse en móviles y aplicaciones similares, incluyendo SD/MMC slot compatible con disco duro optimizado para vídeo y almacenamiento para micromóviles de 4G. Toshiba actualmente vende versiones de 4GB (MK4001MTD) y 8GB (MK8003MTD) 5 y tienen el Record Guinness del disco duro más pequeño.
Los principales fabricantes suspendienron la investigación de nuevos productos para 1 pulgada (1,3 pulgadas) y 0,85 pulgadas en 2007, debido a la caída de precios de las
memorias flash, aunque Samsung introdujo en el 2008 con el SpidPoint A1 otra unidad de 1,3 pulgadas.
El nombre de "pulgada" para los factores de forma normalmente no identifica ningún producto actual (son especificadas en milímetros para los factores de forma más recientes), pero estos indican el tamaño relativo del disco, para interés de la continuidad histórica.
principales productores de discos duros


TOSHIBA
Toshiba fue la compañia inventora de la unidad DVD.
Toshiba fue la primera compañia en desarrollar y sacar al mercado la primer computadora portatil del mundo.
2005: Toshiba fue el primero en vender un disco de
grabación perpendicular de 1,8 pulgadas (4,5 cm) capaz de almacenar 80 GB.
Diciembre de 2006: informa de la disponibilidad de un disco de
grabación perpendicular con 2 platos.
Desarrolló junto con
Microsoft y NEC el HD DVD (DVD de alta definición).
Fue la primera compañia en desarrollar el reactor nuclear.

MAXTOR ( SEAGATE)
1980: Seagate construye el primer
disco duro comercial de 5,25 pulgadas.
1986: El cofundadador de Seagate
Finis Conner abandona la empresa y funda la rival Conner Peripherals.
1992: Compra la división de discos de
Control Data Corporation.
Noviembre de 1992: Seagate lanza la primera unidad de disco a 7.200
RPM.
1996: Conner Peripherals se fusiona con Seagate.
Octubre de 1997: Seagate presenta la primera unidad de disco con interfaz
Fibre Channel.
Marzo de 1998: Seagate fabrica su cabeza de grabación magnética número 1.000 millones.
Abril de 1999: Seagate vende su unidad de disco número 250 millones.
Principios de 2005: Seagate lanza al mercado un
disco duro de bolsillo de 5 GB basado en el Seagate ST1.
Junio de 2005: Seagate anuncia las unidades con
cifrado de disco completo vía hardware.
21 de diciembre de 2005: Seagate anuncia la compra de su rival
Maxtor por 1.900 millones de dólares.
9 de enero de 2006: Seagate es nombrada «Compañía del Año» 2006 por la revista
Forbes.
16 de enero de 2006: Seagate comienza a vender su primer disco duro de 2,5 pulgadas con tecnología de
grabación perpendicular, el Momentus 5400.3.
24 de abril de 2006: Seagate anuncia la compra de ActionFront Data Recovery Labs.
26 de abril de 2006: Seagate lanza un disco duro de 750 GB, la primera unidad de disco doméstica de 3,5 pulgadas en usar la tecnología de grabación perpendicular.
18 de mayo de 2006: Seagate completa la adquisición de Maxtor.
[2]
12 de diciembre de 2006 –
Alan Shugart, cofundador de Seagate Technology, muere a la edad de 76 años.
4 de enero de 2007 – Seagate anucia al mundo el 3er disco de 1
TB.
Marzo de 2007 – Seagate se convierte en el primer fabricante en vender discos duros para laptop con el nuevo sistema de construcción con tecnología de cifrado total.


Productos
Discos duros para Desktop
Barracuda®, desde 80 GB hasta 2 TB de capacidad, conexiones SATA o ATA, y tecnología de grabación perpendicular.
Internal 3.5 pulgadas, 7200 rpm y conexiones SATA o ATA.
DiamondMax® 7200 rpm ,desde 40 a 320 GB de capacidad, conexiones SATA o ATA
Discos duros para Laptop
Momentus® desde 30 a 160 GB
Maxtor® MobileMax™ 5400 rpm, desde 40 hasta 80 GB, conexión ATA
Notebook Interno
Discos duros para Server
Savvio®
Cheetah®
Barracuda® ES
Discos duros externos
FreeAgent™
ProFreeAgent™ Desktop
Discos duros portables
FreeAgent™ Go