jueves, 15 de mayo de 2014

LA MÁQUINA DE VON NEUMANN


INTRODUCCIÓN


El hombre en su interminable afán por facilitarse la vida, hace que su genio inventor diseñe artefactos, máquinas y sistemas que efectúen cálculos y realicen labores que parecen imposibles. La automatización consiste en reemplazar al hombre por una máquina para ejecución de una tarea, y se ha venido desarrollando casi a la par con la historia de la humanidad.

Dentro de estas máquinas creadas por el hombre, tenemos al computador que es un dispositivo con él cual se pueden realizar tareas muy diversas, cargando distintos programas en la memoria para que los ejecute el procesador. Buscando siempre optimizar los procesos, ganar tiempo, hacerlo más fácil de usar y simplificar las tareas rutinarias.

Las computadoras está formada por una estructura que data de los años 40 pero que aún sigue en la mayoría de las PC’s de la actualidad, nos referimos a la arquitectura Von Neumann, se refiere a las arquitecturas de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para los datos (a diferencia de la arquitectura Harvard). El término se acuñó en el documento First Draft of a Report on the EDVAC (1945), escrito por el conocido matemático John Von Neumann, que propuso el concepto de programa almacenado. Dicho documento fue redactado en vistas a la construcción del sucesor de la computadora ENIAC.

En el presente se sigue usando esta estructura solo con algunas modificaciones.


LA MÁQUINA DE VON NEUMANN 

Es un concepto teórico formulado por el matemático húngaro - estadounidense John von Neumann.

Supóngase un determinado problema simple, repetitivo y prolongado en el tiempo: por ejemplo, la extracción de mineral de hierro en la superficie de Marte.

Una solución posible es enviar máquinas robotizadas que, de forma autónoma, extraigan el mineral y lo conviertan en lingotes de hierro, bien para su envío a la Tierra, bien para su uso por colonias locales. Si una máquina extrae n toneladas en un determinado período de tiempo (ciclo), en m ciclos se tendrá m x n toneladas.

Supóngase ahora un segundo tipo de máquina: una máquina que, además de producir lingotes de hierro, los trabaja para autorreplicarse, construyendo una máquina igual a ella misma. El rendimiento será menor que el de la primera máquina, pues parte del hierro lo utiliza en producir la segunda máquina, pero al cabo de un tiempo (generación), no se tendrá una sino dos máquinas trabajando. Tras dos generaciones se tendrá cuatro máquinas, tras tres generaciones ocho máquinas, etcétera. Se trata de una población que crece de forma exponencial.

Así, aunque el rendimiento sea menor, la producción tenderá a crecer hasta superar la de la primera máquina. Como ejemplo, tras diez generaciones habrá más de mil máquinas de von Neumann (exactamente 1.024 = 210), de manera que, aunque su rendimiento fuera del 5% de la primera máquina, la producción total sería más de 50 veces mayor.

Este concepto no es solamente teórico: los virus informáticos son máquinas de von Neumann. Ante el ingente trabajo de infectar el mayor número posible de ordenadores, los virus se autorreplican pasando de ordenador a ordenador, aumentando su población de forma exponencial e infectando así millones de ordenadores en pocas horas.

Sin embargo, no sólo hay aplicaciones negativas de este concepto. Los autómatas celulares tienen alto rango de aplicaciones en la ciencia, modelando y simulando gran cantidad de sistemas físicos, como fluidos, flujo de tráfico, etc.

JOHN VON NEUMANN

Matemático, artífice del primer ordenador (1903 Budapest, Hungria, 1957 Washington D.C., USA)

John von Neumann nació el 28 de diciembre de 1903 en Budapest, Hungria, y murió el 8 de febrero de 1957 en Washington D.C., USA. Su verdadero nombre es János Neumann. De pequeño la llamaban Jancsi, un diminutivo del húngaro János, más tarde fue llamado Johnny en los United States. Su padre, Max Neumann era un rico banquero. Creció en una extensa familia en Budapest, donde de niño aprendió además de húngaro, alemán y francés. Tenía una increíble memoria que ponía de manifiesto desde muy pequeño haciendo demostraciones en reuniones familiares. Fue un niño prodigio que a la edad de 6 años podía dividir mentalmente cifras de 8 dígitos.

Aunque eran judios, Max Neumann no era un estricto practicante y John aprendió también algunas tradiciones cristianas. El hijo de Max Neumann adquirió el von y se convirtió en János von Neumann porque en 1913, Max Neumann compró un título que nunca utilizó. Aunque su hijo sí.

En 1911, von Neumann entró en el Lutheran Gymnasium. La escuela tenía una estricta tradición académica. Su profesor de matemáticas pronto reconoció en el joven Neumann un talento especial. En esa escuela estudiaba también, un año más que Jànos, otro talentoso matemático llamado Eugene Wigner.

La primera guerra mundial tuvo poco efecto en la educación de Neumann, pero después de la guerra, Béla Kun controló Hungria durante cinco meses en 1919, con un gobierno comunista. La familia se exilió a Austria aunque regresaron pronto. Cuando el gobierno de Kun cayó, los judios fueron perseguidos por el hecho de haber participado en el gobierno.

En 1921, von Neumann completó su educación en el Lutheran Gymnasium. Su primera publicación matemática, escrito conjuntamente con Fekete su tutor en la Universidad de Budapest, fue publicado en 1922. Sin embargo Max Neumann quería que su hijo eligiera una carrera con más posibilidades económicas. A pesar de las pocas plazas para judios consiguió ser admitido en la univewrsidad de Budpest para estudiar matemáticas. Sim embargo renunció y fue a Berlín a estudiar química siguiendo el consejo de su padre.


Allí estudió hastas 1923 cuando se fue a Zurich. Consiguió además excelentes resultados en los exámenes de matemáticas de la universidad de Budapest a pesar de no haber asistido a clases. Von Neumann recibió su diploma en ingeniería química de la Technische Hochschule en Zürich en 1926. Durante este tiempo, continuó su interés en las matemáticas, intercambió ideas con Weyl y Pólya que también estaban en Zurich. Ayudaba en los cursos de Weyl cuando éste se ausentaba de Zurich.

Von Neumann recibió su doctorado en matemáticas de la universidad de Budapest, en 1926, con una famosa tesis sobre teoría de conjuntos. Publicó una definición de número ordinal a la edad de 20 años, definición que todavía se usa. Una de las teorías axiomáticas de conjuntos aceptadas hoy día es llamada la teoría de von Neumann, Bernays, Gödel.

Entre 1926 y 1929 fue profesor de matemáticas en la Universidad de Berlín, y en Hamburgo entre 1930 y 1933. También estudió en Göttingen entre 1926 y 1927. Por aquella época ya era reconocido como un gran matemático.

En 1930, fue invitado a visitar la Universidad de Princeton (USA) donde impartió clases entre los años 1930 y 1933, pero no fue un buen profesor, puesto que resultaba muy difícil seguir sus explicaciones. Con la llegada de los nazis al poder y el convencimiento de que en los Estados Unidos su posición académica tendría más futuro, se estableció en los Estados Unidos, dónde ayudó a muchos científicos judíos que huyeron de Alemania para encontrar trabajo. Al fundarse el Instituto de Estudios Avanzados en 1933, Von Neumman fue elegido como uno de sus únicos 6 profesores matemáticos, actividad que realizó el resto de su vida.

En 1932, publicó Fundamentos matemáticos de la mecánica cuántica. Fue el fundador de la Teoría de Juegos. Demostró el teorema del minimax y en 1944 publicó, junto con Oskar Morgenstern, el famoso libro Teoría de juegos y del comportamiento económico. En 1929, en un artículo en Mathematische Annalen, fue el primero en estudiar las álgebras auto-adjuntas de operadores lineales acotados sobre un espacio de Hilbert. Estos anillos de opradores se conocen con el nombre W*-algebras, pero J. Dixmier, en 1957, las llamó "álgebras de von Neumann" nombre con el que hoy día son conocidas.

Von Neumann fue uno de los pioneros de las Ciencias de la Computación e hizo importantes contribuciones al desarrollo del diseño lógico o de programación. Creó la arquitectura de los computadores actuales, propuso la adopción del bit como medida de la memoria de los ordenadores, y resolvió el problema de la obtención de respuestas fiables con componentes no fiables (bit de paridad).

Participó en el diseño del que se considera el primer ordenador, el ENIAC (que se construyó para calcular la trayectoria de los misiles), para hacer modificaciones al programa se tenía que cambiar las conexiones de las válvulas. Más tarde propuso separar el hardware del software y se creó el EDVAC.

Neumann fue tan importante y clave para el desarrollo de la computadora digital que a la mayoría de aquellas máquinas, se las conoce como procesadores von Neumann. Su tesis y problema más importante sobre las máquinas fue la del concepto de autoreproducción, se cuestionaba: ¿Puede ser una máquina artificial capaz de producir una copia de ella misma, que pudiera también, ser capaz de crear más copias? En sus ponencias para la Universidad de Yale, The Computer and the Brain, afirmaba que las computadoras y los seres humanos son diferentes clases de automatas.

Participó, junto con Einstein, en el desarrollo de la bomba atómica (Proyecto Manhattan) en el laboratorio de Los Álamos en Nuevo México. El diseño de implosión de las bombas nucleares se adeuda a Von Newmann. Él fue quién defendió y participó en la construcción de la bomba de hidrógeno, y quién propuso la construcción de misiles intercontinentales.

Además de ser una persona de prestigio, inteligencia y conocimiento, también era divertido, pues frecuentaba cabarets de Berlín, y se dice que durante su estancia en Princeton, eran famosas sus fiestas.

Se casó dos veces, las dos veces con mujeres húngaras, y tuvo una hija con cada una. Murió a los 53 años de cáncer de próstata, se cree que a causa de la exposición a la radiactividad en Los Álamos.

HISTORIA

Una primera implementación de la autorreproducción del constructor universal de Von Neumann. Tres generaciones de máquina se muestran, el segundo casi ha terminado la construcción de la 3ª. Las líneas que corren a la derecha son las cintas de las instrucciones genéticas, que se copian junto con el cuerpo de las máquinas. La máquina funcionando se muestra en una versión de estado 32 del ambiente autómata celular de von Neumann.

Von Neumann le dio su nombre a la arquitectura de von Neumann, utilizada en casi todos los computadores, por su publicación del concepto; aunque muchos piensan que este nombramiento ignora la contribución de J. Presper Eckert y John William Mauchly, quienes contribuyeron al concepto durante su trabajo enENIAC.16 Virtualmente, cada computador personal, microcomputadorminicomputador y supercomputador es una máquina de von Neumann. También creó el campo de los autómatas celulares sin computadores, construyendo los primeros ejemplos de autómatas autorreplicables con lápiz y papel. El concepto de constructor universal fue presentado en su trabajo póstumo Teoría de los autómatas autorreproductivos. El término «máquina de von Neumann» se refiere alternativamente a las máquinas autorreplicativas. Von Neumann probó que el camino más efectivo para las operaciones mineras a gran escala, como minar una luna entera o un cinturón de asteroides, es a través del uso de máquinas autorreplicativas, para aprovechar el crecimiento exponencial de tales mecanismos.

Además de su trabajo en arquitectura computacional, von Neumann ofreció una contribución al estudio de algoritmosDonald Knuth considera a von Neumann el inventor, en 1945, del conocido algoritmo merge sort, en el cual la primera y segunda mitad de un array (vector) se clasifican recursivamente por separado y luego se fusionan juntas.

También participó en la investigación de problemas en el campo de la hidrodinámica numérica. Junto con R. D. Richtmyer desarrolló un algoritmo para definir la viscosidad artificial, que probó la esencia para el entendimiento de las ondas de choque. Puede decirse que no sería posible entender mucho de astronáutica y ni siquiera podrían haberse desarrollado los jets y los motores espaciales sin ese trabajo. El problema era que cuando los computadores resuelven problemas hidro o aerodinámicos, buscan poner muchos puntos de rejilla (o malla, en inglés grid) computacionales en regiones con onda de choque de discontinuidad aguda. La viscosidad artificial era un truco matemático para suavizar levemente la transición del choque sin sacrificar la física básica.

La arquitectura de von Neumann  es una familia de arquitecturas de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para los datos (a diferencia de la arquitectura Harvard).
La mayoría de computadoras modernas están basadas en esta arquitectura, aunque pueden incluir otros dispositivos adicionales (por ejemplo, para gestionar las interrupciones de dispositivos externos como ratón, teclado, etc).
El nacimiento u origen de la arquitectura von Neumann surge a raíz de una colaboración en el proyecto ENIAC del matemático de origen húngaro, John von Neumann. Éste trabajaba en 1945 en el Laboratorio Nacional Los Álamos cuando se encontró con uno de los constructores de la ENIAC. Compañero de Albert Einstein, Kurt Gödel y Alan Turingen Princeton, Von Neumann se interesó por el problema de la necesidad de reconfigurar la máquina para cada nueva tarea.
En 1949 había encontrado y desarrollado la solución a este problema, consistente en poner la información sobre las operaciones a realizar en la misma memoria utilizada para los datos, escribiéndola de la misma forma, es decir en código binario. Su "EDVAC" fue el modelo de las computadoras de este tipo construidas a continuación. Se habla desde entonces de la arquitectura de Von Neumann, aunque también diseñó otras formas de construcción. El primer computador comercial construido en esta forma fue el UNIVAC I, fabricado en 1951 por la Sperry-Rand Corporation y comprado por la Oficina del Censo de Estados Unidos.
Los ordenadores con esta arquitectura constan de cinco partes: La unidad aritmético-lógica o ALU, la unidad de control, la memoria, un dispositivo de entrada/salida y el bus de datos que proporciona un medio de transporte de los datos entre las distintas partes.


Un ordenador con esta arquitectura realiza o emula los siguientes pasos secuencialmente:
Enciende el ordenador y obtiene la siguiente instrucción desde la memoria en la dirección indicada por el contador de programa y la guarda en el registro de instrucción.
Aumenta el contador de programa en la longitud de la instrucción para apuntar a la siguiente.
Decodifica la instrucción mediante la unidad de control. Ésta se encarga de coordinar el resto de componentes del ordenador para realizar una función determinada.
Se ejecuta la instrucción. Ésta puede cambiar el valor del contador del programa, permitiendo así operaciones repetitivas. El contador puede cambiar también cuando se cumpla una cierta condición aritmética, haciendo que el ordenador pueda 'tomar decisiones', que pueden alcanzar cualquier grado de complejidad, mediante la aritmética y lógica anteriores.
El término arquitectura de von Neumann se acuñó a partir del memorando First Draft of a Report on the EDVAC (1945) escrito por el conocido matemático John von Neumann en el que se proponía el concepto de programa almacenado. Dicho documento fue redactado en vistas a la construcción del sucesor de la computadora ENIAC y su contenido fue desarrollado por John Presper Eckert, John William Mauchly, Arthur Burks y otros durante varios meses antes de que von Neumann redactara el borrador del informe. Es por ello que otros tecnólogos como David A. Patterson y John L. Hennessy promueven la sustitución de este término por el de arquitectura Eckert-Mauchly.

Las máquinas autorreplicantes de John von Neumann

A principios de la década de 1950, von Neumann estudió los mecanismos que debe tener una máquina para que pueda tener la capacidad de construir otra máquina igual a la máquina creadora; de manera que diseñó un autómata celular con esas propiedades. A partir de la fecha de su muerte en 1957, dejó el proyecto sin terminar y desde entonces se han hecho varios intentos de completarlo; uno de los trabajos más destacados de reproducir y completar el trabajo de von Neumann se dio en el año 2000 por un grupo de especialistas en diseño de hardware en el Laboratorio de Sistemas Lógicos del Instituto de Tecnología Federal Suiza.

El constructor universal es uno de los conceptos que von Neumann definió y que es una parte fundamental en el diseño de esa máquina constructor universal, que es capaz de construir cualquier otra máquina constructor universal a partir de su descripción. Este proceso requiere que la descripción del constructor universal incluya su propia descripción, idea que fue tomada de modelos celulares vivos que contienen información de cómo construir otras células del mismo tipo: 

La descripción muestra las características básicas de la máquina, al estilo de un genoma, que es interpretado para construir una copia del constructor universal.

La descripción es literalmente copiada, una vez que ha sido detectada y leída.

Stanislaw Ulam hizo la sugerencia (a von Neumann) de implementar sus ideas en un espacio bidimensional discreto. De manera que el universo creado por von Neumann lo define una matriz bidimensional infinita, cuyas entradas, llamadas células, son máquinas de estados finitos. Después de haber estudiado el modelo con varias opciones, llegó a definir 29 estados y una regla de transición.





El constructor universal está dividido en el control de la cinta (Tape control) y el control de construcción (Construction control); el control de la cinta obtiene la información de la máquina que se va a construir; y el control de construcción interpreta la descripción obtenida y construye el nuevo autómata por medio de un brazo constructor (Constructing arm). Podemos mencionar algunas características que tiene este constructor universal: 

Universalidad construccional, significa que es capaz de construir cualquier autómata, si cuenta con su descripción.

Autoreproducción del constructor universal.

Autoreproducción de la máquina universal, ya que el constructor universal está definido con una máquina universal de Turing, y la cinta contiene la información completa.


DESCRIPCIÓN DE LA ARQUITECTURA  DE JOHN VON NEUMANN
Debido a la importancia de la von Neumann en el desarrollo de las computadoras, cabe destacar por encima lo que es este tipo de máquina.
Es una familia de arquitecturas de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para los datos.
La mayoría de las computadoras de hoy en día se basan en este tipo de arquitectura, aunque pueden incluir otros dispositivos adicionales.
Surgió como consecuencia de la colaboración de Newmann en el proyecto ENIAC. Neumann, consciente de la torpeza de la aritmética decimal utilizada en las computadoras de este proyecto podría reemplazarse utilizando la aritmética binaria, realizo un diseño básico llamado la máquina de Von Newmann. El programa se implanto en la computadora de EDVAC.
Se estructura en 5 partes básicas:
1.    Memoria (MI)
2.    Unidad aritmética lógica(ALU)
3.    Unidad de control del programa.
4.    Equipos de entrada y salida.
5.    Buses de interconexión
MEMORIA: Expresada en bits, constaba de 4096 palabras cada una de 40 bits. Cada palabra contenía hasta 2 instrucciones de 20 bits cada una o un numero entero de 39 bits y su signo.
UNIDAD ARITMÉTICA LÓGICA (ALU) : Supervisa la transferencia de información y la indica a la unidad aritmética lógica la operación que debe ejecutar.
UNIDAD DE CONTROL DEL PROGRAMA: Se encarga de realizar las operaciones aritméticas y lógicas necesarias para la ejecución de una instrucción.
 EQUIPOS DE ENTRADA Y SALIDA: La entrada o input es cualquier dispositivo a través del cual se introduce información a la computadora. La salida o output es cualquier dispositivo que recibe información de la máquina para poder ser  utilizada por usuarios.
BUSES DE INTERCONEXIÓN. Dispositivo que funciona de transporte de datos y conexión entre las distintas partes de un sistema informático. Son las líneas eléctricas u ópticas a través de las cuales se comunican las distintas unidades de un ordenador. Los buses son cables por los que circulan los bits en forma de información.

Los primeros ordenadores, con sistemas de numeración decimal y complicada electrónica con muchos fallos y un sistema de programación cableado, hizo que von Newman propusiese dos principios básicos que llevarían a la revolución de la informática del momento. En primer lugar, la utilización del sistema de numeración binario y en segundo lugar el almacenamiento de la secuencia de instrucciones de que consta el programa de memoria interna.



CONSIDERACIÓN PERSONAL
Yo considero que John von Neumann fue uno de los matemáticos más importantes de la historia moderna cuyo legado incluye, entre otras aportaciones, la arquitectura de computadores y las máquinas autorreplicantes.

Además fue uno de los pioneros de las Ciencias de la Computación e hizo importantes contribuciones al desarrollo del diseño lógico o de programación. Creó la arquitectura de los computadores actuales, propuso la adopción del bit como medida de la memoria de los ordenadores, y resolvió el problema de la obtención de respuestas fiables con componentes no fiables (bit de paridad).

Neumann fue tan importante y clave para el desarrollo de la computadora digital que a la mayoría de aquellas máquinas, se las conoce como procesadores von Neumann.

Pero todo este aporte no se trata solo de un concepto teórico, las máquinas de Von Neumann existen. Por ejemplo, un virus informático es una de estas máquinas. Los virus se autorreplican pasando de ordenador a ordenador, aumentando su población de forma exponencial infectando dañando así millones de equipos en pocas horas.
Von Neumann llamó a sus máquinas “Constructores Universales”. Sus funciones se asemejan mucho a las de un ser vivo elemental, y poseen tres sistemas fundamentales: una sección capaz de utilizar materiales y energía para la construcción y funcionamiento; un “sistema reproductor”, encargado de fabricar la copia de sí mismas; y un ordenador, que controla el proceso y asegura que las instrucciones pasen a la siguiente generación. Este programa sería el equivalente del genoma presente en los organismos vivos.
Estas ideas son aún irrealizables, pero hay procesos robotizados de fabricación y algoritmos genéticos que evolucionan a la manera de máquinas virtuales. La ciencia ficción ha creado también escenarios donde los Constructores Universales han conquistado la galaxia. Pensemos en una civilización que creara máquinas capaces de viajar por el espacio, y al llegar a un planeta o asteroide comenzaran a reproducirse, para luego seguir colonizando nuevos lugares. Con tiempo suficiente, acabarían colonizando toda la Galaxia, infectándola con nuevas copias. Si el programa que se transmite de generación en generación variase ligeramente, al azar, podrían incluso evolucionar.


CONCLUSIÓN

Al determinar este proyecto puedo afirmar que  Von Neumann tuvo la idea de construir la máquina de tal modo que pudiera "memorizar" una serie de órdenes y una serie de datos, de tal manera que pudiera luego "trabajar sola" hasta lograr el resultado. Concibió para ello la "arquitectura" o estructura física hoy conocida con su nombre y generalizada en la segunda y la tercera generación de computadores, arquitectura que ya es descrito  en este trabajo. Paralelamente concibió  lo que se ha llamado el "programa", o sea un conjunto estructurado de órdenes o instrucciones de trabajo que guían, paso a paso, el funcionamiento de la máquina. Esto lleva a una primera estructuración: debe haber una unidad de memoria y una unidad que procesa, y esta memoria debe poder contener el programa y los datos así como resultados parciales de las operaciones en curso. Estas dos unidades básicas conforman la "Unidad Central de Procesos" (CPU o "Central Process Unit", en inglés).

Tanto los computadores con gran volumen de memoria y alta velocidad de proceso (llamados "mainframe") como los computadores personales de nuestras oficinas u hogares o las máquinas de video-juegos ("flippers" electrónicos) tienen una "CPU" con esta misma estructura y que cumple las mismas funciones básicas.

Además puedo informar que  el genio inquieto de von Neumann también postuló teorías más futuristas para problemas que hoy en día todavía pertenecen a la ciencia ficción, como la explotación minera de la Luna o del cinturón de asteroides, la creación de satélites alimentados por energía solar o la construcción de fábricas en otros planetas.


BIBLIOGRAFIA

http://es.wikipedia.org/wiki/M%C3%A1quina_de_von_Neumann, Arquitectura_de_von_Neumann y Máquina_autorreplicante.
http://computacion.cs.cinvestav.mx/~acaceres/docs/tesis/node23.html









viernes, 21 de marzo de 2014

HISTORIA DE LOS DISPOSITIVOS DE ALMACENAMIENTO SECUNDARIOS






INTRODUCCIÓN




El procesador es capaz de realizar a gran rapidez operaciones sobre los datos almacenados en la memoria la cual es volátil y tiene una capacidad de almacenamiento insuficiente para guardar todos los datos, con lo cual, los ordenadores necesitan disponer de alguna forma de almacenamiento permanente y masivo. Se conoce como almacenamiento secundario a los medios de almacenamiento que están fuera del almacenamiento primario. Las cintas magnéticas, los paquetes de discos, los discos flexibles y los discos de almacenamiento óptico son los ejemplos de medios de almacenamiento secundario. Son más económicos que la RAM y no requieren el suministro continuo de energía para conservar la información almacenada.

Como la cantidad de información que manejamos hoy en día es bastante, los dispositivos de almacenamiento secundarios se van necesitando cada día más y con mayor capacidad. Hoy en día existen dispositivos de almacenamiento secundarios que superan los 20 GB, y aun así no es suficiente para poder hacer respaldos y transportar los documentos que el usuario necesite.

Es por tal razón que hoy en día existen diferentes dispositivos de almacenamiento secundarios, que tienen su propia tecnología. En el presente proyecto se estudiaran: Las características de los dispositivos de almacenamiento secundarios, y algunos tipos de dispositivos de almacenamiento como por ejemplo:
Almacenamiento Magnético,  Óptico, Híbrido (Magnético/Óptico).

El objetivo de este trabajo es dar a conocer los distintos tipos de almacenamiento secundarios que existen y sus características, con el fin de conocer más sobre sus formas de almacenamientos. Para así poder aprender cómo manejar y utilizar cada uno de ellos.



 DISPOSITIVOS DE ALMACENAMIENTO SECUNDARIOS



El almacenamiento secundario (memoria secundaria, memoria auxiliar o memoria externa) es el conjunto de dispositivos (aparatos) y medios (soportes) de almacenamiento, que conforman el subsistema de memoria de una computadora, junto a la memoria principal.
No deben confundirse las "unidades o dispositivos de almacenamiento" con los "medios o soportes de almacenamiento", pues los primeros son los aparatos que leen o escriben los datos almacenados en los soportes.
La memoria secundaria es un tipo de almacenamiento masivo y permanente (no volátil), a diferencia de la memoria RAM que es volátil; pero posee mayor capacidad de memoria que la memoria principal, aunque es más lenta que ésta.

EVOLUCIÓN HISTÓRICA DE LOS DISPOSITIVOS DE ALMACENAMIENTO SECUNDARIOS.

Uno de los primero dispositivos de almacenamiento de información fue la tarjeta perforada de Babagge, la cual tenía un inconveniente, no podía ser reutilizada. Luego aparece la cinta magnética, esta si era reutilizable pero no era de acceso aleatorio (para leer un bit se debían leer todos los anteriores), por ultimo aparecen los discos magnéticos los cuales eran reutilizables y también de acceso aleatorio.

En la década de 1950 aparecen los dispositivos magnéticos, considerados los dispositivos de almacenamiento de información más generalizados en cualquier sistema, ya que estos tenían una elevada capacidad de almacenamiento y una rapidez de acceso directo a la información.

A finales de la década de los 80' aparecen los dispositivos ópticos los cuales fueron utilizados en primera instancia para la televisión. En 1988 gracias a su fácil transportabilidad y su alta capacidad de almacenaje, este dispositivo se populariza, se empieza a comercializar y a utilizar en las computadoras. La primera generación de discos ópticos fue inventada en Phillips, y Sony colaboro en su desarrollo.

TIPOS DE ALMACENAMIENTO.

Las dos principales categorías de tecnologías de almacenamiento que se utilizan en la actualidad son el almacenamiento magnético y el almacenamiento óptico. A pesar de que la mayoría de los dispositivos y medios de almacenamiento emplean una tecnología o la otra, algunos utilizan ambas.

Una cuarta categoría de almacenamiento (almacenamiento de estado sólido) se utiliza con mayor frecuencia en los sistemas de computación, pero es más común en cámaras digitales y reproductores multimedia.

En función de la tecnología utilizada por los dispositivos y medios (soportes), el almacenamiento se clasifica en:

- Almacenamiento magnético.
- Almacenamiento óptico.
- Almacenamiento magneto-óptico (híbrido, Disco magneto-ópticos)
- Almacenamiento electrónico o de estado sólido (Memoria Flash).
Almacenamiento Magnético. Es una técnica que consiste en la aplicación de campos magnéticos a ciertos materiales capaces de reaccionar frente a esta influencia y orientarse en unas determinadas posiciones manteniéndolas hasta después de dejar de aplicar el campo magnético.
Ejemplo: Disco Duro, Cinta Magnética.
Almacenamiento Óptico. En los discos ópticos la información se guarda de una forma secuencial en una espira que comienza en el centro del disco. Además de la capacidad, estos discos presentan ventajas como la fiabilidad, resistencia a los arañazos, la suciedad y a los efectos de los campos magnéticos.
Ejemplo:
·        CD-ROM Discos de solo lectura.
·        CD-R Discos de escritura y múltiples lecturas.
·        CD-RW Discos de múltiples escrituras y lecturas.
·        DVD+/-R Discos de capacidad de 4.5GB, hasta 9.4GB, de escritura y múltiples lecturas.
·        DVD+/-RW Discos de capacidad de 4.5GB, hasta 9.4GB, de múltiples escritura y múltiples lecturas.
·        Blu Ray Tecnología de disco de alta densidad, desarrollada por Sony. Ganó la contienda, por ser el nuevo estándar contra su competidor el HD-DVD (DVD de Alta Definición). Su superioridad se debe a que hace uso de un laser con una longitud de onda "Azul", en vez de "Roja", tecnología que ha demostrado ser mucho más rápida y eficiente que la implementada por el DVD de alta definición.

ALMACENAMIENTO DE ESTADO SÓLIDO (SSD - Solid-State Drive)

Dispositivo de almacenamiento de datos que usa una memoria no volátil, como la memoria flash, o una memoria volátil como la SDRAM, para almacenar datos, en lugar de los platos giratorios magnéticos encontrados en los discos duros convencionales. En comparación con los discos duros tradicionales, las unidades de estado sólido son menos susceptibles a golpes, son prácticamente inaudibles y tienen un menor tiempo de acceso y de latencia. Los SSD hacen uso de la misma interfaz que los discos duros, y por tanto son fácilmente intercambiables sin tener que recurrir a adaptadores o tarjetas de expansión para compatibilizarlos con el equipo.
Consta de una memoria no volátil, en lugar de los platos giratorios y cabezal, que son encontrados en las unidades de disco duro convencionales. Sin partes móviles, una unidad de estado sólido pretende reducir drásticamente el tiempo de búsqueda, latencia y otros, esperando diferenciarse positivamente de sus primos hermanos los discos duros.

CARACTERÍSTICAS DE LOS DISPOSITIVOS DE ALMACENAMIENTO SECUNDARIO:

ü  Capacidad de almacenamiento grande.
ü  No se pierde información a falta de alimentación.
ü  Altas velocidades de transferencia de información.
ü  Mismo formato de almacenamiento que en memoria principal.
ü  Siempre es independiente del CPU y de la memoria primaria. Debido a esto, los dispositivos de almacenamiento secundario, también son conocidos como, Dispositivos de Almacenamiento Externo.


 ALMACENAMIENTO MAGNÉTICOS.

 Usan el mismo material y técnicas similares para leer como escribir en ellos.
Las superficies de los disquetes, discos duros y cintas magnéticas están recubiertas con partículas de un material magnético sensible (por lo general óxido de hierro) que reacciona a un campo magnético.
Cada partícula actúa como un imán, creando un campo magnético cuando se somete a un electroimán. 
Las cabezas de lectura/escritura de la unidad, contienen electro imanes y graban cadenas de 1 y 0, alternando la dirección de la corriente en esos electros imanes.

CINTA MAGNÉTICA.

La cinta magnética es un tipo de soporte de almacenamiento de información que se graba en pistas sobre una banda de un material magnético, generalmente óxido de hierro o algún cromato. Se utilizó por primera vez para guardar datos en 1951 en una computadora UNIVAC I.

FUNCIONAMIENTO INTERNO DE LA CINTA MAGNÉTICA.

Está formada por una cinta de material plástico recubierta de material ferro magnético, sobre dicha cinta se registran los caracteres en formas de combinaciones de puntos, sobre pistas paralelas al eje longitudinal de la cinta. Estas cintas son soporte de tipo secuencial, esto supone un inconveniente puesto que para acceder a una información determinada se hace necesario leer todas las que le preceden, con la consiguiente pérdida de tiempo.

CARACTERÍSTICAS DE LA CINTA MAGNÉTICA.

Debido a que la cinta es una tira larga de material magnético, se escribe y lee un byte detrás de otro. (SECUENCIAL).
Dentro de un cartucho de plástico rígido. 
La cinta y la unidad están separadas.
Portable y liviana. 
Almacena hasta 8 GB.
Bajo costo relativo. 
Por su lento acceso, se usan principalmente para respaldos.

Disco Duro.

Es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales.

HISTORIA Y EVOLUCIÓN DEL DISCO DURO.

El 13 de septiembre de 1956 IBM presentó al mundo el IBM 350, el primer disco duro de la historia. Podía almacenar casi 4,4 MB, tenía 50 discos de 24 pulgadas de diámetro con 100 superficies de grabación que giraban a 1200 RPM y la tasa de transferencia de datos era de 8800 caracteres por segundo. Medía 1,52 metros de largo, 1,72 metros de alto y 74 centímetros de ancho. Mucho han cambiado las cosas desde entonces. Cualquier ordenador de nuestros días viene de serie con al menos 1 disco duro de varios cientos de gigabytes.
Son en la actualidad el principal subsistema de almacenamiento de información en los sistemas informáticos. Es un dispositivo encargado de almacenar información de forma persistente en un ordenador, es considerado el sistema de almacenamiento más importante del computador y en él se guardan los archivos de los programas.

FUNCIONAMIENTO INTERNO.

Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
Características de un disco duro.

ü  Uno o más platillos de metal.
ü  Dentro de una cámara sellada al vacío.
ü  El medio y el dispositivo forman una sola pieza.
ü  Fijo y pesado.
ü  Almacenan desde 80 MB.
ü  Giran a velocidades de entre 3600 rpm y 7200     rpm.

Discos duros removibles

Combinan la velocidad y la capacidad de un disco duro, con la portabilidad de un disquete.
El conjunto formado por el disco y la caja a menudo reciben el nombre de cartuchos de disco duro.

Disco duro removible en que el medio y el dispositivo están separados
Unidad JAZ (1GB-2GB)
Unidad ZIP (100MB -750MB) Interno- Externo
SyQuest EZ135 (Empezó con discos de 135MB-230MB)



DISQUETTE O DISCO FLEXIBLE.

 Un disco flexible o también disquette (en inglés floppy disk), es un tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material magnético que permite la grabación y lectura de datos, fino y flexible (de ahí su denominación) encerrado en una carcasa fina cuadrada o rectangular de plástico. Los discos, usados usualmente son los de 3 ½ o 5 ¼ pulgadas, utilizados en ordenadores o computadoras personales, aunque actualmente los discos de 5 ¼ pulgadas están en desuso.

HISTORIA Y EVOLUCIÓN DEL DISQUETTE O DISCO FLEXIBLE.
La historia del disquete comienza a la par del disco duro, con Alan Shugart en los laboratorios de IBM en San José, California, quien lideraba el equipo de desarrollo de la platina de disco, en 1967. Uno de los ingenieros de Shugart, David Noble, fue quien propuso el medio flexible de 8", así como la camisa protectora con el forro en tela. Estos discos recibían el nombre de flopi (floppy) por su flexibilidad.
Los primeros discos flexibles fueron utilizados en IBM para cargar micro códigos en el controlador del paquete de discos Merlín, el IBM3330, que era un dispositivo de almacenamiento de 100MB de capacidad.
Shugart dejó IBM en 1969 y se llevó consigo más de 100 ingenieros de IBM con el a Memorex. Debido a la exhibición de lealtad por parte de sus colegas y subordinados, Shugart recibió el sobrenombre de "El flautista" (The Pied Piper).
En 1971, IBM introdujo al mercado el primer "disco de memoria" (memory disk), como fue llamado el disco flexible en aquel entonces. Este era un flopi de 8", que estaba conformado por un disco de material plástico flexible, cubierto por una capa de óxido de fierro, envuelto en una camisa protectora y forro de tela. Los datos eran escritos y leídos de la superficie magnética del disco. El flopi fue considerado un dispositivo revolucionario en su momento, por su portabilidad, que proveía de una nueva y fácil manera de transporte físico de datos.
 Shugart dejó en 1973 Memorex, igualmente llevándose a un gran número de asociados, e inició Shugart Associates para desarrollar y fabricar platinas de disco flexible. La interfaz desarrollada por Shugart sigue siendo la base de todas las platinas de disco flopi. IBM utilizó esta interfaz en su PC, habilitando el uso de platinas de terceros en vez de crear soluciones propietarias.
Shugart deseaba incorporar procesadores y platinas de flopys en sistemas completos de microcomputadoras de aquel entonces, pero los socios capitalistas de Shugart Associates deseaban que se concentrara exclusivamente en platinas de flopi. Aunque no es claro si Shugart fue despedido, renunció o fue obligado a renunciar, el se separó de Shugart Associates en 1974, justo antes de que introdujeran la platina de miniflopi de 5 ¼", que había sido solicitada por Wang Laboratorios para sus equipos de cómputo de sobremesa, y que eventualmente se convertiría en el estándar para las computadoras personales, reemplazando rápidamente las platinas de 8". Shugart demandó a Shugart Associates para que quitaran su apellido del nombre de la compañía, pero perdió. La compañía eventualmente se convertiría en Shugart Corporation.
Para 1978 ya existían más de 10 fabricantes de platinas de disco flexible de 5 ¼".
Desde su salida de Shugart Associates, Shugart tomó un tiempo de descanso, dirigió un bar y realizó algunas incursiones en la pesca comercial, sin embargo, en 1979, Finis Conner se le acercó para proponerle la creación de una empresa para la fabricación y comercialización de platinas de 5 ¼". Fundaron Seagate Technology y para el final de 1979 ya anunciaban el ST-506, una unidad de disco duro de 6MB sin formato y 5 MB formateado, junto con su interfaz de comunicación.
En 1981, Sony presenta la primera platina para discos de 3½", así como los disquetes, similares a los flopis, pero con la camisa protectora de un material más duro, así como un mecanismo de protección para la ventana de lectura de datos. Este disco es aceptado inicialmente por Apple y eventualmente por IBM y HP, lo que le dio popularidad y se convirtió en el nuevo estándar.
Esta unidad está quedando obsoleta y son muchos los computadores que no la incorporan, por la aparición de nuevos dispositivos de almacenamiento más manejables, que además disponen de mucha más memoria física, como por ejemplo las memorias USB. Una memoria USB de 1 Gigabyte de memoria equivale aproximadamente a 711 disquetes. Algunos países siguen utilizando estos medios de almacenamiento para presentaciones impositivas anuales.




FUNCIONAMIENTO INTERNO DEL DISQUETE.
Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). Los disquetes de 3½" son menores que el CD, tanto en tamaño como en capacidad. La disquetera es el dispositivo o unidad lectora/grabadora de disquetes, y ayuda a introducirlo para guardar la información.
Este tipo de dispositivo de almacenamiento es vulnerable a la suciedad y los campos magnéticos externos, por lo que, en muchos casos, deja de funcionar con el tiempo.
Es un tipo de dispositivo de almacenamiento de datos formado por una pieza circular de un material magnético que permite la grabación y lectura de datos, fino y flexible encerrado en una carcasa fina cuadrada o rectangular de plástico. Las cabezas de lectura/escritura pueden moverse a cualquier punto del disco (ALEATORIO)

CARACTERÍSTICAS DEL DISQUETTE.

ü  Un solo disco de mylar flexible, de diámetro 3,5 pulgadas
ü  Dentro de una cubierta plástica.
ü  El medio y el dispositivo están separados.
ü  Portable y liviano.
ü  Almacenan hasta 1.44 MB (excepto unidades especiales de 2.88 MB).
ü  Giran a 300 rpm.
ü  Las cabezas de lectura/escritura pueden moverse a cualquier punto del disco (ALEATORIO)

ALMACENAMIENTO ÓPTICO.
Se conocen como almacenamiento ópticos a aquellos dispositivos de almacenamiento masivo de datos en los que el sistema de lectura/grabación es por medio de dispositivos ópticos (normalmente láser) en vez de ser por un sistema electro-magnético.
Disco óptico
Un disco óptico es un formato de almacenamiento de datos digitales, que consiste en un disco circular en el cual la información se codifica, se guarda y almacenas, haciendo unos surcos microscópicos con un láser sobre una de las caras planas que lo componen.
Historia
El disco óptico fue inventado en 1958. En 1961 y 1969, David Paul Gregg registró una patente por el disco óptico analógico para grabación de video, patente de EE.UU 3.430.966. Es de interés especial que la patente de EE.UU 4.893.297, registrada en 1968, emitida en 1990, generó ingresos de regalías para el DVD de Pioneer Corporation hasta 2007, abarcando los sistemas CD, DVD, y Blu-ray. A comienzos de los años 1960, la Music Corporation of America (MCA) compró las patentes de Gregg y su empresa, Gauss Electrophysics.
Luego en 1969, en Holanda, físicos de Philips Research comenzaron sus primeros experimentos en un disco óptico de video en Eindhoven. En 1975, Philips y MCA unieron esfuerzos, y en 1978, comercialmente mucho después, presentaron su largamente esperado Laserdisc en Atlanta. MCA comerciaba los discos y Philips los reproductores. Sin embargo, la presentación fue fracaso técnico y comercial y la cooperación entre Philips y MCA se disolvió.
En Japón y Estados Unidos, Pioneer triunfó con el disco de video hasta la llegada del DVD. En 1979, Philips y Sony, en consorcio, comenzaron a desarrollar un nuevo disco óptico de almacenamiento de audio con tecnología digital y en 1983 terminaron con éxito el disco compacto (CD). Paralelamente, la compañía Pioneer tuvo éxitos en el campo de los discos de video hasta el desarrollo del actual DVD.
A mitad de los años 1990, un consorcio de fabricantes desarrolló la segunda generación de discos ópticos, el DVD.
La tercera generación de discos ópticos fue desarrollada entre 2000 y 2006, y las primeras películas en discos Blu-ray fueron lanzadas en junio de 2006. Blu-ray eventualmente prevaleció en una guerra de formatos de discos ópticos de alta definición sobre un formato de la competencia, el HD DVD. Un disco estándar Blu-ray puede almacenar aproximadamente 25 GB de datos, un DVD aproximadamente 4.7 GB, y un CD alrededor de 700 MB.

FUNCIONAMIENTO INTERNO DEL DISCO ÓPTICO.
La unidad enfoca un rayo láser sobre la superficie de un disco giratorio. Algunos puntos del disco reflejan la luz en un sensor (plano = se interpreta como un 1) y otros dispersan la luz (orificio = se interpreta como un 0).
CD-ROM.
   
Es un disco compacto utilizado para almacenar información no volátil, el mismo medio utilizado por los CD de audio, puede ser leído por un computador con lectora de CD. 

CARACTERÍSTICAS.

ü  Sólo lectura (Al escribirlo, el disco es físicamente agujereado, por lo que no se puede reescribir).
ü  El disco y la unidad están separados.
ü  Portable y liviano.
ü  Almacenan aproximadamente 650 MB.
ü  Alta precisión.

CD-R.

Es un soporte digital óptico utilizado para almacenar cualquier tipo de información. Este tipo de CD puede ser grabado múltiples veces, ya que permite que los datos almacenados sean borrados

CARACTERÍSTICAS:

ü  Pueden escribirse más de una vez (El rayo láser altera la estructura molecular del disco).
ü  No pueden ser leídos por una unidad de CD-ROM convencional.


DVD (DIGITAL VERSATILE DISC).

Un dispositivo de almacenamiento masivo de datos es idéntico al de un disco compacto, aunque contiene hasta 25 veces más información y puede transmitirla al ordenador o computadora unas 20 veces más rápido que un CD-ROM.

Su mayor capacidad de almacenamiento se debe, a que puede utilizar ambas caras del disco y, en algunos casos, hasta dos capas por cada cara, mientras que el CD sólo utiliza una cara y una capa. Las unidades lectoras de DVD permiten leer la mayoría de los CDs, ya que ambos son discos ópticos; no obstante, los lectores de CD no permiten leer DVDs.

CARACTERÍSTICAS:

ü  Sólo lectura (Al escribirlo, el disco es físicamente agujereado, por lo que no se puede reescribir).
ü  El disco y la unidad están separados.
ü  Portable y liviano.
ü  Almacenan entre 4,7 y 17 GB. (133 minutos de alta resolución de video).
ü  Alta precisión.

Existen varios tipos de DVD: DVD-ROM (dispositivo de lectura únicamente), DVD-R y DVD+R (solo pueden escribirse una vez), DVD-RW y DVD+RW (permiten grabar y borrar las veces que se quiera).

BluRay (Blu-Ray DISC).

Es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de alta definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 50 GB a doble capa y a 25 GB a una capa, aunque los hay de mayor capacidad.
ALMACENAMIENTO ELECTRÓNICO O DE ESTADO SÓLIDO.
Una unidad de estado sólido o SSD (acrónimo en inglés de solid-state drive) es un dispositivo de almacenamiento de datos que usa una memoria no volátil, como la memoria flash, o una memoria volátil como la SDRAM, para almacenar datos, en lugar de los platos giratorios magnéticos encontrados en los discos duros convencionales. En comparación con los discos duros tradicionales, las unidades de estado sólido son menos sensibles a los golpes, son prácticamente inaudibles y tienen un menor tiempo de acceso y de latencia. Las SSD hacen uso de la misma interfaz que los discos duros y, por lo tanto, son fácilmente intercambiables sin tener que recurrir a adaptadores o tarjetas de expansión para compatibilizarlos con el equipo.
Aunque técnicamente no son discos, a veces se traduce erróneamente en español la "D" de SSD como "disk" cuando, en realidad, representa la palabra "drive", que podría traducirse como unidad o dispositivo.
A partir del 2010, la mayoría de los SSDs utilizan NAND basada en la memoria flash, que retiene los datos sin alimentación. Para aplicaciones que requieren acceso rápido, pero no necesariamente la persistencia de datos después de la pérdida de potencia, los SSD puede ser construido a partir de la memoria de acceso aleatorio (RAM). Estos dispositivos pueden emplear fuentes de alimentación independientes, tales como baterías, para mantener los datos después de la desconexión de la corriente eléctrica.1
Se han desarrollado dispositivos que combinan ambas tecnologías, es decir discos duros y memorias flash, y se denominan discos duros híbridos.
HISTORIA UNIDAD DE ESTADO SÓLIDO.
SSD basados en RAM
Habría que remontarse a la década de 1950 cuando se utilizaban dos tecnologías denominadas memoria de núcleo magnético y CCROS. Estas memorias auxiliares surgieron durante la época en la que se hacía uso del tubo de vacío, pero con la introducción en el mercado de las memorias de tambor, más asequibles, no se continuaron desarrollando. Durante los años 70 y 80, se aplicaron en memorias fabricadas con semiconductores. Sin embargo, su precio era tan prohibitivo que tuvieron muy poca aceptación, incluso en el mercado de los superordenadores.
En 1978, Texas memory presentó una unidad de estado sólido de 16 KB basada en RAM para los equipos de las petroleras. Al año siguiente, StorageTek desarrolló el primer tipo de unidad de estado sólido moderna. En 1983, se presentó el Sharp PC-5000, haciendo gala de 128 cartuchos de almacenamiento en estado sólido basado en memoria de burbuja. En septiembre de 1986, Santa Clara Systems presentó el BATRAM, que constaba de 4 MB ampliables a 20 MB usando módulos de memoria; dicha unidad contenía una pila recargable para conservar los datos cuando no estaba en funcionamiento.
SSD basados en flash
En 1995, M-Systems presentó unidades de estado sólido basadas en flash. Desde entonces, los SSD se han utilizado exitosamente como alternativa a los discos duros en la industria militar y aeroespacial, así como en otros menesteres análogos. Estas aplicaciones dependen de una alta tasa de tiempo medio entre fallos (MTBF), gran capacidad para soportar golpes fuertes, cambios bruscos de temperatura, presión y turbulencias.
Bit MICRO, en 1999, hizo gala de una serie de presentaciones y anuncios de unidades de estado sólido basadas en flash de 18 GB en formato de 3,5 pulgadas. Fusion-io, en 2007, anunció unidades de estado sólido con interfaz PCI Express capaces de realizar 100.000 operaciones de Entrada/Salida en formato de tarjeta de expansión con capacidades de hasta 320 GB. En el CeBIT 2009, OCZ presentó un SSD basado en flash de 1 TB con interfaz PCI Express x8 capaz de alcanzar una velocidad máxima de escritura de 654 MB/s y una velocidad máxima de lectura a 712 MB/s. En diciembre de 2009, Micrón Technology anunció el primer SSD del mundo, utilizando la interfaz SATA III.2
Enterprise flash drive
Los enterprise flash drives (EFD) están diseñados para aplicaciones que requieren una alta tasa de operaciones por segundo, fiabilidad y eficiencia energética. En la mayoría de los casos, un EFD es un SSD con un conjunto de especificaciones superiores. El término fue acuñado por EMC en enero de 2008, para ayudarles a identificar a los fabricantes SSD que irían orientados a mercados de más alta gama. No existen organismos de normalización que acuñen la definición de EFD, por lo que cualquier fabricante puede denominar EFD a unidades SSD sin que existan unos requisitos mínimos. Del mismo modo que puede haber fabricantes de SSD que fabriquen unidades que cumplan los requisitos EFD y que jamás sean denominados así.
RaceTrack
IBM está investigando y diseñando un dispositivo, aún en fase experimental, denominado Racetrack. Al igual que los SSD, son memorias no volátiles basadas en nano hilos compuestos por níquel, hierro y vórtices que separan entre sí los datos almacenados, lo que permite velocidades hasta cien mil veces superiores a los discos duros tradicionales, según apunta la propia IBM.
 Ventajas e inconvenientes
Ventajas
Los dispositivos de estado sólido que usan flash tienen varias ventajas únicas frente a los discos duros mecánicos:
· Arranque más rápido, al no tener platos que necesiten tomar una velocidad constante.
· Gran velocidad de escritura.
· Mayor rapidez de lectura, incluso 10 veces más que los discos duros tradicionales más rápidos gracias a RAIDs internos en un mismo SSD.
· Baja latencia de lectura y escritura, cientos de veces más rápido que los discos mecánicos.
· Lanzamiento y arranque de aplicaciones en menor tiempo - Resultado de la mayor velocidad de lectura y especialmente del tiempo de búsqueda. Pero solo si la aplicación reside en flash y es más dependiente de la velocidad de lectura que de otros aspectos.
· Menor consumo de energía y producción de calor - Resultado de no tener elementos mecánicos.
· Sin ruido - La misma carencia de partes mecánicas los hace completamente inaudibles.
· Mejorado el tiempo medio entre fallos, superando 2 millones de horas, muy superior al de los discos duros.
· Seguridad - permitiendo una muy rápida "limpieza" de los datos almacenados.
· Rendimiento determinístico - a diferencia de los discos duros mecánicos, el rendimiento de los SSD es constante y determinístico a través del almacenamiento entero. El tiempo de "búsqueda" constante.
· El rendimiento no se deteriora mientras el medio se llena. (Véase Desfragmentación)
· Menor peso y tamaño que un disco duro tradicional de similar capacidad.
· Resistente - Soporta caídas, golpes y vibraciones sin estropearse y sin des calibrarse como pasaba con los antiguos discos duros, gracias a carecer de elementos mecánicos.
· Borrado más seguro e irrecuperable de datos; es decir, no es necesario hacer uso del Algoritmo Gutmann para cerciorarse totalmente del borrado de un archivo.
 Limitaciones
Los dispositivos de estado sólido que usan flash tienen también varias desventajas:
· Precio - Los precios de las memorias flash son considerablemente más altos en relación precio/gigabyte, la principal razón de su baja demanda. Sin embargo, esta no es una desventaja técnica. Según se establezcan en el mercado irá mermando su precio y comparándose a los discos duros mecánicos, que en teoría son más caros de producir al llevar piezas metálicas.
· Menor recuperación - Después de un fallo físico se pierden completamente los datos pues la celda es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son frecuentemente recuperables usando ayuda de expertos.
· Vida útil - En cualquier caso, reducir el tamaño del transistor implica reducir la vida útil de las memorias NAND, se espera que esto se solucione con sistemas utilizando memristores
Antiguas desventajas ya solucionadas:
· Degradación de rendimiento al cabo de mucho uso en las memorias NAND (solucionado, en parte, con el sistema TRIM).
· Menor velocidad en operaciones E/S secuenciales. (Ya se ha conseguido una velocidad similar).
· Vulnerabilidad contra ciertos tipo de efectos - Incluyendo pérdida de energía abrupta (en los SSD basado en DRAM), campos magnéticos y cargas estáticas comparados con los discos duros normales (que almacenan los datos dentro de una jaula de Faraday).
· Menor capacidad máxima que la de un disco duro convencional. (Actualmente, es incluso mayor a la de los discos duros normales).






CONCLUCION


Al concluir con este trabajo puedo  afirmar que los dispositivo de almacenamiento secundarios Son periféricos del sistema, que actúan como medio de soporte para grabar los programas de usuario, y de los datos y ficheros que va a manejar la CPU durante el proceso en curso, de forma permanente o temporal mediante sus propias tecnologías, ya sea electrónica u ópticamente.

Los datos en el almacenamiento secundario se reúnen en archivos, los cuales se definen como colecciones de información relacionada. La existencia de los archivos se debe a la existencia del almacenamiento secundario, si la información se mantuviera en RAM no recibirían dicho nombre.

Sin embargo cabe recalcar que el acceso a la información del almacenamiento secundario es más lento que el acceso a la memoria RAM.

Los dispositivos de almacenamiento secundario están en línea con el procesador. Aceptan datos o instrucciones del programa del procesador cuando se necesitan para llevar a cabo tareas de procesamiento.

Las cintas magnéticas, los paquetes de discos, los discos flexibles y los discos de almacenamiento óptico son los ejemplos de dispositivos de almacenamiento secundario. Son más económicos que la RAM y no requieren el suministro continuo de energía para conservar.







 BIBLIOGRAFÍA



http://lamateriadebrusco.wordpress.comDispositivos-de-almacenamiento-secundario.

http://mediosdealmacenamientoo.blogspot.com  imágenes de los Dispositivos-de-almacenamiento-secundario.

 http://elhardware-g1-sc-ipdd.blogspot.com/p/secundaria.html.   Característica y definición de los dispositivos de almacenamiento óptico.

http://html.rincondelvago.com/dispositivos-de-almacenamiento.


http://arqcomputradorjhironsel.blogspot.com  dispositivo-de-almacenamiento-secundario.

ANTONIO L., (2002). Aula Siglo XXI. Computación y Tecnología. Madrid, España. Historia del disco duro, disquete, cinta magnética.

Mail.umc.edu.ve/opsu/contenidos/dispositivosdeuncomputador_computador. Historia de los dispositivos de almacenamiento magnético.