Fonctionnement

LE DISQUE DUR

Le 1er disque dur pesait une tonne: le RAMAC construit par IBM et stockait seulement 5Mo aujourd'hui la quantité d'information pouvant être stcokée sur un disque dur peut aller jusqu'à 1To soit  1 000Go pour seulement 120 euros avec le WESTERN DIGITAL. La capacité des disques dur a donc été multipliée par 200 000 !! 

    1) quelques définitions :

Capacité :c'est le volume de données pouvant etre stockées sur le disque dur 

Le bit : est un chiffre binaire, c'est à dire 0 ou 1. C'est la plus petite unité de mesure en informatique qui désigne la quantité élémentaire d'information représentée par un chiffre du système binaire.

Vitesse de rotation : vitesse à laquelle les plateaux tournent, exprimée en tours par minutes (notés rpm pour rotations par minute). La vitesse des disques durs est de l'ordre de 7200 à 15000 rpm. Plus la vitesse de rotation d'un disque est élevée plus le débit du disque est meilleur mais, un disque possédant une vitesse de rotation élevé est généralement plus bruyant et chauffe plus facilement qu'un disque ayant une plus petite vitesse de rotation.  

Temps de latence (aussi appelé délai rotationnel) : temps écoulé entre le moment où le disque trouve la piste et le moment où il trouve les données.

Temps d'accès moyen : temps moyen que met la tête pour se positionner sur la bonne piste et accéder à la donnée. Il représente donc le temps moyen que met le disque entre le moment où il a reçu l'ordre de fournir des données et le moment où il les fournit réellement. Il doit ainsi être le plus court possible.

Densité: La densité de l'information correspond a la quantité d'information que l'on peut stocker sur une surface donnée. Elle n'influence que le débit du disque. 

Densité radiale : nombre de pistes par pouce (tpi: Track per Inch).  

Densité linéaire : nombre de bits par pouce sur une piste donnée (bpi: Bit per Inch).  

Taux de transfert (ou débit) : c'est la quantité de données pouvant être lues ou écrites sur le disque par unité de temps. Le taux de transfert  s'exprime en bits par seconde.En fait c'est la rapidité du disque dur.Le débit des disques durs a été multiplié par 50 avec une vitesse de rotation multipliée par 4 depuis la création des disques durs.

Les informations sur un disque dur sont stockées généralement longitudinalement : Pour pouvoir stocker toujours plus d'informations, il a cependant fallu trouver un autre moyen de stockage plus performant. En effet le stockage longitudinal commençait à atteindre ses limites physiques. Les données sont donc, sur les disques durs les plus récents, stockées verticalement. Il en ressort une densité d'informations accrue.

 

 

 

   2) débit de l'information:

 Lorsque l'on parle d'un disque qui tourne à 5400 trs/min c'est la vitesse angulaire (1 tour = 1 angle de 360 °).

Cette vitesse est  constante. Contrairement à la vitesse linéaire qui change constamment en fonction de la position des têtes de lecture/écriture du disque par rapport à son centre. Plus les têtes s'éloignent du centre du disque , et plus la vitesse linéaire augmente. Donc plus la vitesse linéaire est importante, et plus le débit est grand !


Une donnée qui est située près du centre du disque  va être par conséquent  lue moins vite qu'une donnée située au bord.

 

 Le temps d'accès aux données

Le temps d'accès correspond au temps moyen que mettent les têtes de lecture pour trouver les informations.

 

Temps d'accès aux données  = Temps de latence + Temps d'accès aux données.

Le temps de latence ne dépend qu' uniquement de la vitesse de rotation du disque, car il correspond au temps nécessaire pour trouver des données après un changement de piste (si la donnée est positionnée un tour ou un quart de tour plus loin par exemple).

Le peu d' évolution du temps d'accès aux données entre 1990 et maintenant est un problème d'inertie (l'inertie est l' énergie que l'on doit dépenser pour stopper un objet en mouvement).

énergie cinétique =1/2x [ masse x (vitesse)² ] 

Quand on augmente un peu la vitesse de rotation du disque, l'inertie augmente rapidement ce qui rend la maîtrise de la mécanique difficile. La solution pourrait être de fabriquer des disques plus petits afin de diminuer  la masse des plateaux et des têtes de lecture. Mais cela entrainerait une diminution de la vitesse linéaire.  Il vaut donc mieux alors se tourner vers les disques durs SCSI qui donnent des temps d'accès de 3 ms pour certains.

Afin de contrer les performances stagnantes des disques durs, les constructeurs leurs ont mis un cache. Le cache est dans les disques dur depuis pas mal de temps dans les disques durs. Il peut atteindre maintenant 16 Mo aujourd'hui. Ce cache sert de relais entre le processeur et le disque dur. Mais ; cela ne veut pas donc dire pour autant qu'un disque pourra être plus performant qu'un autre disque dur d'une autre marque ! 

 -Le NCQ

Le NCQ est une technologie qui permet de faire progresser les performances des disques durs. Cette technologie permet de réorganiser l'ordre des commandes envoyées au disque dur par l'ordinateur pour que celui-ci récupère les données en faisant le moins de tours possibles pour récupérer les données demandées (ce qui se fait donc plus rapidement). Cette technologie n'est efficace que si vous ne parcourez pas un seul gros fichier non fragmenté sur le disque et est implantée dans les chipsets les plus récents : 

 

 

  

Des merveilles magnétiques

 Les données sont stockées sur le disque dur sous forme analogique sur une fine couche magnétique de quelques microns d'épaisseur recouverte d'un film protecteur. 

 

 -Des bras mécaniques controllés par des moteurs déplacent les têtes avec précision au dessus des pistes ; un système hydrodynamique ajuste la hauteur des têtes à quelques fractions de micromètres au dessus de la surface des disques.

                                                                  

-Des têtes de lecture récupèrent l'information en détectant les aimentation: De chaque côté des plateaux du disque dur, elles enregitrent des informations en aimantant de petits secteurs nommés domaines, elles sont faite d’un petit circuit magnétique bobiné. Parcourue par un courant, la bobine crée un champ d’induction canalisé par le circuit magnétique.

-Une minuscule fente dans celui-ci (l’entrefer) induit un débordement du champ (= tube d’écriture) sous l’action duquel l’aimantation de la bande s’oriente (expérience):  L’inversion du courant permet de réaliser des zones d’aimantations alternées. toute séquence constitue la zone écrite, support de l’information image vidéo ou musique. Sur cette maquette, pour effacer, on peut par  exemple faire défiler la bande sous la tête d’écriture en faisant circuler un courant constant dans la bobine.

 

 

 

l'écriture verticale

 

Jusque maintenant, c'est l'amélioration de la sensibilité des têtes de lectures qui a conduit à l'augmentation de la capacité des disques.Les têtes de lectures couvrent une piste et lorsque les l'écriture longitudinale et trop compact, les champs magnétiques créé par la tête de lecture peuvent s'étendrent sur les pistes adjacente et entrainer une perte de données.

 Les ingénieurs essaient maintenant de réduire la taille des éléments binaires jusqu'à la limitte de l'effet superparamagnétique. 

 

Les bits d'information sont inscrits verticalement ainsi les champs magnétiquent se renforcent mutuellement et ne sont pas soumis à l'effet superparamagnétique. Ce type d'enregistrement peut doubler le nombre de bits écrits linéairement sur une piste.

L 'écriture verticale utilise l'effet Faraday : l'aimentation modifie la polarisation d'un faisceau laser réfléchi sur le disque ; selon cette aimantation, on obtient des directions de polarisation différentes qui codent des 0 ou des 1.

Ce type d'écriture permet une mignaturisation encore plus grande et une densitée des données encore plus importante .Mais il existe une limite à ce stockage de donnée, si on ne trouve pas donc encore un autre moyen de mignaturiser les données,dans quelques années les disque durs n'auront plus une capacitée infinie.

 

MEMOIRE FLASH              

 Le developpement

 

     La mémoire flash est basée sur le même principe que la mémoire RAM dans les ordinateurs (Random Access Memory), soit la mémoire vive (données qui sont conservées uniquement pendant la mise sous tension de l'ordinateur). Le stockage flash a donc pour principe la réunion de nombreux circuits intégrés bâtis sur une même structure: la matrice. Elle se résume en un tableau composé de nombreuses cellules mesurant quelques millionièmes de millimètres.

 

      Matrice

 

        Chaque cellule de la matrice est ainsi chargée électriquement. Dans le langage binaire elles sont représentées par des bits (0 ou 1).

   Pour stocker les données, la mémoire flash possède donc dans chacune de ses cellules un transistor dit «grille flottante» qui comprend : du lithium (utilisé pour son grand potentiel électrochimique) qui réagit avec l’azote, l’oxygène et la vapeur d’eau dans l’air. Par conséquent, la surface de lithium devient un mélange d'hydroxyde de lithium (LiOH), de carbonate de lithium (Li2CO3) et de nitrure de lithium (Li3N) créant de l’oxyde de silicium, d'une grille flottante, d'une grille de contrôle, d'une source et d'un drain : le transistor joue ici un double rôle.

   Il stocke à la fois les électrons à la manière d'un condensateur (sur la grille flottante) et joue aussi le rôle d'une vanne fermée qui ne laisse plus passer le courant (lorsque la grille est saturée).

   

 L’écriture des données :

  

   Celle ci s'effectue par l'intermédiaire d'application de tensions au niveau des cellules que l'on souhaite écrire ou effacer des données.

Si l'on ne stock aucune donnée, on dit alors que les électrons sont libres : ils peuvent circuler librement entre les différents transistors.

Pour inscrire des données, il est nécessaire d'appliquer une tension égale à 12 volts sur la source et sur le drain.

Les électrons sont alors attirés dans la grille flottante, passent dans l'oxyde et se font «emprisonner» par celle-ci grâce à un «effet tunnel». Lorsque la grille est chargée d'électrons, le transistor est dit bloqué et correspond au bit 0. Quand la grille ne contient pas d'électrons, le transistor est dit passant, c'est un 1.

  Pour passer d'un 0 (transistor bloqué) à un 1 (transistor passant), on applique une tension de 12 Volts sur la source exclusivement. Cela attire les électrons hors de la grille flottante (ces derniers continuent leur chemin vers le drain). Il arrive qu'une partie infime de ces électrons ne parviennent pas s'évacuer de la grille flottante, cependant, cela ne modifie pas le fonctionnement du transistor qui devient alors passant.

  

Lecture des données :

  

    Lors de cette phase, on applique une tension (de 1,8 à 5 Volts suivant le constructeur et le modèle utilisé) sur la grille de contrôle. Une tension identique est alors appliquée entre le drain et la source. Lorsque la grille flottante est chargée d'électrons, elle s'oppose au passage du courant, de sorte qu'il y a très peu d'électrons qui parviennent jusqu'au drain, on a alors un 0. Si la grille n'est pas chargée en électrons, le courant circule librement entre la source et le drain et on obtient alors un 1. 

 

   

 

La grille flottante ne contient pas d'électrons et laisse le courant circuler entre le drain et la source.

 

 

 

La grille flottante contient des électrons et empêche le courant de circuler entre la source et le drain.

 

   

 

Les différents types de carte utilisant la mémoire flash :

 

      La mémoire flash se retrouve le plus couramment sous forme de cartes dites flash qui se divisent sous 7 formes différentes :

Les CF ou Compact Flash : les premières furent lancées par IBM et sont utilisées dans les appareils photo professionnels - elles peuvent admettre une capacité de 137GO (giga octet), ceux sont en bref des micro-disques durs.

 

  

 Les SM ou Smart Media cards : elles se divisent sous 2 types celle de 3V et celle de 5V et n’utilisent pas de composant électronique leur permettant de réduire leur taille au maximum. Elles se présente généralement sous forme d’une masse de stockage de 128 MO (méga octet).

 Les xD card : Ce format est l’un des plus récent. Créé par Fuji et Olympus en 2002, elles sont très petites donc utilisables dans des appareils numériques de petite taille (de la taille d’une pièce de 2€). L'inconvénient majeur est leur prix qui reste à l'heure actuelle très élevé.  Elles ont été créées surtout pour remplacer les Smart Media.

  

 

 

 Les MMC ou Multimédia cards : la MMC est la reine du point de vue de la taille c’est pour cela qu’on la retrouve souvent dans les PDA ou baladeur MP3. Mais elle est abandonnée au profit de la SD.

 

 

 

La SD ou Secure Digital : Elle se présente sous trois formes : le SD normal, les mini SD et micro SD. Elles ont le même format que les MMC et sont compatibles entre elles. Les minis et les micros SD sont  en résumé des versions de taille inférieure de la SD classique. La principale différence avec les MMC est  un interrupteur sur le coté qui permet de protéger les données : un simple changement de position permet de protéger la carte en écriture (la lecture restant possible). Aujourd’hui le format SD est le plus répandu et le moins onéreux.

 

 

Les SSD ou Solid State Drive : Leur temps de réponse est beaucoup plus rapide que pour les autres formes de card. En 2007 des constructeurs comme Apple  commencent à créer des disques SSD d'environ 60 GO.

  

 

                                                                                                                        Mémoire Flash à 64 Gbits par puce

   Les MS ou Memory Stick : Elles ont été développées conjointement par Sony et Scan disque en janvier 2000.  Elles se divisent sous 3 formats : les classiques, les duo et les micro ou M2. Ceux sont des mémoires minuscules utilisées surtout dans les téléphones portables, surtout les Sony Ericsson ou les PSP.  Leur architecture est basée sur des circuits de mémoire de type NAND. Elles sont capables de stocker de 32 MO à 8GO malgré leur petite dimension en générale de  21,5 mm x 50 mm x 2,8 mm comparable à la taille d'une petite boîte d’allumettes, et pesant à peine 4g pour les classiques. De  31 x 20 x 1,6mm pour un poids de 2g pour les Duo et de 15 x 12,5 x 1,2mm pour 1g pour les M2.

Mais leur taille n’altérant bien sûr jamais les performances, seuls les qualificatifs PRO, PRO High Speed ou PRO-HG témoignent d'une différence de technologie.

  

 

  De plus des adaptateurs dit transfets, existent pour passer d’un modèle à l’autre sans problème par exemple d’un appareil photo numérique Kodac à un Canon qui n’utilise pas forcement les mêmes formats de carte et ainsi éviter de devoir en racheter une à chaque changement d’appareil. Il en existe également un pour utiliser par exemple les cartes Micro dans un lecteur de cartes Duo.

  

  

 

  

Avec le temps la technologie des Memory Sticks a elle aussi évolué :

 Memory Sticks : 

-capacités : 32, 64, 128 Mo et 2 × 128 Mo (avec Memory Select Function).

 -débit en lecture théorique : 2,5 Mo/s (20 Mbit/s).

 -débit en écriture théorique : 2,5 Mo/s (20 Mbit/s).

 Memory Stick PRO et PRO High Speed :

-capacités : 256, 512 Mo, 1, 2 Go Système de fichier FAT.

 -capacités : 4, 8, 16 Go : Système de fichier FAT32 (à savoir que sur les 8 Go, un seul fichier ne peut pas dépasser 4 Go).

 -débit en écriture théorique pour le PRO : 20 Mo/s (160 Mbit/s).

 -débit en écriture obtenu lors de tests pour le PRO High Speed : 10 Mo/s (80 Mbit/s).

 Memory Stick PRO-HG 

 -débit en lecture théorique : 30 Mo/s (240 Mbit/s).

 

Enfin le stockage des données s'effectue sous forme de bit on appelle ça le code binaire. Pour plus d'informations rendez vous partie code binaire sur votre gauche !

 

 

 

Créer un site gratuit avec e-monsite - Signaler un contenu illicite sur ce site