Evolución Histórica de los Dispositivos de Almacenamiento en General.
Uno de los primero dispositivos de almacenamiento de información fue la tarjeta perforada de Babagge, la cual tenía un inconveniente, no podía ser reutilizada. Luego aparece la cinta magnética, este si era reutilizable pero no era de acceso aleatorio (para leer un bit se debían leer todos los anteriores), por ultimo aparecen los discos magnéticos los cuales eran reutilizables y también de acceso aleatorio.
En la década de 1950 aparecen los dispositivos magnéticos, considerados los dispositivos de almacenamiento de información más generalizados en cualquier sistema, ya que estos tenían una elevada capacidad de almacenamiento y una rapidez de acceso directo a la información.
A finales de la década de los 80’ aparecen los dispositivos ópticos los cuales fueron utilizados en primera instancia para la televisión. En 1988 gracias a su fácil transportabilidad y su alta capacidad de almacenaje, este dispositivo se populariza, se empieza a comercializar y a utilizar en las computadoras. La primera generación de discos ópticos fue inventada en Phillips, y Sony colaboro en su desarrollo.
Evolución Histórica de algunos dispositivos Específicos.
Discos Flexibles o Floppy Disk
El disco flexible nació en IBM, y a inicios de la década de los 70’ se introdujo en las unidades de esta marca. En 1972, salió al mercado el sistema 3740 dotado de una memoria de mesa basado en un disco flexible.
Estos discos flexibles o también llamados disquette fueron los más usados en los años 1980 y 1990, desde entonces han pasado por una serie de evoluciones en cuanto a tamaño y a capacidad de almacenamiento, comenzando de 8 pulgadas, luego con 5 1/4 y para finalizar los de 3 1/2, esto en cuanto a sus dimensiones, En cuanto a capacidad de almacenamiento o memorización pasaron de tener alrededor de 100 Kbytes a poseer mas de 1 Mbytes en las unidas de 3 1/2.
No obstante a comienzos de los años 1990, al aumentar el tamaño del los programas informáticos, se requería mayor número de disquette para guardar una determinada información debido a que dichos disquettes no se daban a basto. Por esta razón a finales de los 90, la distribución de programas cambió gradualmente al CD-ROM, y se introdujeron formatos de copias de seguridad de alta densidad como el disco Zip. Con la llegada de Internet a las masas y de un ethernet barato, el disquete ya no era necesario para guardar la información, y fue por consecuencia suplantado.
Ahora se realizan copias de seguridad masivas en unidades de cinta de gran capacidad (como cintas de audio digital, ing: DAT) o en CD-ROM utilizando una grabadora de discos compactos. También se ha impuesto el uso de los llamados llaveros USB para poder transportar cómodamente en un reducido espacio una gran cantidad de información.
De todas formas, los fabricantes eran reacios a retirar la unidad de disco flexible de los ordenadores, argumentando que servían para mantener la compatibilidad con programas anteriores. La empresa Apple fue la primera en eliminar el disco flexible por completo con la puesta en circulación de su modelo iMac en 1998 el cual no tenía unidad de disco flexible. En marzo de 2003, Dell tomó una decisión similar al hacer la unidad de disco flexible opcional en sus ordenadores, una decisión considerada mayoritariamente como el final del disco flexible como medio de almacenamiento e intercambio de datos mayoritario.
Aunque los disquetes han sido desplazados por los Pen Driwers, los CD, etc.; todavía se siguen utilizando los disquetes con formato de 3 ½ pulgadas; ya que estos cuales están mucho mejor protegidos por un plástico rígido y un escudo, plástico o metálico, que protege una ranura existente en la superficie del material protector del disco (la ventana de lectura) que los discos de 5 ¼ pulgadas, envueltos en un plástico de mucho menos grosor y sin protección en la ventana de lectura. Su facilidad para el manejo habitual y las menores restricciones para su almacenamiento, mientras no sea utilizado el soporte físico, le dan importantes ventajas sobre los discos de 5 1/4 pulgadas.
Disco Duro
En el año 1952 IBM crea en San José (California) el primer laboratorio dedicado exclusivamente a la investigación y desarrollo de dispositivos de almacenamiento, dicho proyecto estaba dirigido por el Ingeniero Reynold Johnson, ingeniero de la conocida marca la cual ya destacaba por la invención de dispositivos mecánicos y electromagnéticos (inventor de los primeros correctores automáticos de exámenes). La idea de un dispositivo magnético de almacenamiento (que luego recibiría el nombre de Disco duro) consistente en una superficie giratoria y una cabeza que pudiera leer y escribir impulsos magnéticos sobre ella comenzaba aquí.
No fue sino hasta aproximadamente dos años después en que Johnson completaba este proyecto, que originalmente (y como casi todo en la informática hace unos años) sólo beneficiaría a los militares estadounidenses. El RAMAC («Random Access Method of Accounting and Control») fue el primer disco duro de la historia de la informática. Contaba con 50 platos de 24 pulgadas de diámetro que giraban a una velocidad de 1200 rpm, un tiempo de acceso medio de 1 segundo y la entonces increíble capacidad de 5 megabytes. Gracias a las mejoras que le realizara Johnson a este dispositivo en los siguientes años aparece RAMAC-350 por el cual se hizo merecedor de varios premios.
A partir de entonces estos dispositivos no han dejado de evolucionar. Dicha evolución ha sido que han doblado su capacidad de almacenaje aproximadamente cada 18 meses bajando sus costos, aumentando su capacidad de almacenaje y aumentando su velocidad. Actualmente los discos están trabajando con una interfaz de mayor velocidad denominada UltraDMA/66 o UltraATA/66 la cual posee el doble de la velocidad aproximadamente 66.7 Mbytes por segundo que la antigua UltraDMA/33 que fue el modelo estándar usado durante varios años.
Estructura del Disco Duro.
Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro atravesados por un eje, y giran continuamente a gran velocidad.
Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 micropulgadas).
Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).
La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.
Tecnologías Futuras.
Pese a que parezca un poco arriesgado a quedarse corto como ha ocurrido en artículos de prensa y proyecciones publicados a lo largo de estos años, pareciera que ahora sí se puede tener una proyección bastante clara de lo que será el futuro de los dispositivos de almacenamiento en los próximos 3 años, y es que, pese a que se plantea una rama de almacenamiento holográfico, el concepto que hay detrás del mismo no es nuevo.
De la misma manera que un holograma codifica objetos en tres dimensiones mediante patrones de interferencia de luz, el HVD (Holographic Versatile Disk) usa el mismo principio para almacenar datos con densidades notablemente superiores a las de los actuales soportes ópticos. Sin embargo resulta difícil de creer que puedan desarrollarla antes del año 2006.
Volviendo al punto de desarrollo de tecnologías futuras, se estipula que la ya implementada tecnología por SONY conocida como láser azul, sea el camino que tome la computación y el almacenamiento de datos en los próximos años. Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.
Toda esta teoría en la que está basado el láser azul no quiere decir otra cosa que, se ha pasado de un extremo a otro de la gama de colores, cambiando el láser rojo de 640 NM por otro azul-violeta de sólo 405 NM, logrando de esta manera una lectura de mayor precisión y destinada a mayores capacidades.