Image2

Image3

Page 2

Les processeurs :

Vers les années 1976, on a vu arriver dans les laboratoires des puces appelées microprocesseurs. D’abord 8 bits, puis 16 bits. Un bit est une valeur soit à 0 soit à 1 donc il faut plusieurs bits pour avoir une valeur minimale utilisable. Car il faut au moins pouvoir coder les lettres de l’alphabet et les valeurs numériques. Le 8 bit des microprocesseurs pouvant offrir 256 codes différents convenaient parfaitement. Trois ou quatre ans après, on a vu les premiers micro-ordinateurs arriver, organisés à partir de ces microprocesseurs, qui tournaient à 4MHz (4 millions de coups d’horloge par seconde pour les premiers). Chaque ordre demandait de 1 à 4 coups d’horloge pur se réaliser. Ils étaient déjà prévus dans un but d’ordinateur familial et le premier Windows sous forme de quelques disquettes a été développé.

Parallèlement on a vu apparaitre de petits outils pour les ‘bidouilleurs’ composés d’un clavier et parfois d’un magnétophone à cassette. Ils étaient organisés eux aussi à partir de ces microprocesseurs. Ils avaient un cordon pour se brancher sur la péritel à l’arrière des téléviseurs, et grâce àun langage simple comme le basic, on pouvait fabriquer par programmation des jeux comme le ‘mur de brique’ ou des jeux de raquettes sur un écran de 256 lignes. Les fournisseurs ont sorti leurs cassettes de jeux pour magnétophones à cassette, les cassettes à mémoires électroniques ainsi que des manettes de jeux, l’ordinateur familial était né. On ne va pas détailler davantage mais il était intéressant de connaitre le début de cet univers.

Processeur est de la même famille que procession ou processus, car il a besoin d’une suite d’ordres selon une organisation très précise comme dans une procession ou un processus, voir une recette pour fonctionner. On appelle cette suite un programme. Avec les progrès de la technique, les micro-ordinateurs ont dépassés les 4MHz (4 millions de coup d’horloge par seconde) pour arriver aujourd’hui à 4000MHz d’horloge (4 milliards par seconde) avec un bus (grand nombre de bits comme des connexions) qui est passé de 8 bits à 32 et 64 bits généralement. Ils ont leur écran, leurs disques et tout ce qu’il faut pour être autonome.

Maintenant que je vous ai bien compliqué les choses, essayons de faire un tour dans vos souvenirs. Vous connaissez tous un exemple de processeur mécanique très ancien, voire plusieurs autres exemples. Si vous prenez l’orgue de barbarie, il lit des lignes de trous sur un carton perforé qu’il déplie en chaine pour vous donner une suite musicale. Cette suite, c’est le programme. Les trous sont les ‘1’ quand le trou existe ou les ‘0’ quand il n’y a pas de trou. On a donc trouvé les bits. On lit le carton par des palpeurs organisés en ligne pour lire en même temps les trous qui vont ensemble. La ligne de doigts de lecture qui comporte autant de doigts qu’il y a de notes, c’est le bus,ensemble de bits qui travaillent en même temps et les plis cartonnés avec leurs trous sont la mémoire du programme. Ce n’est donc pas récent.

On a dans vos souvenirs des boites ou moulins à musique qui utilisent une méthode très proche des orgues de barbarie. Les trous sont remplacés par des bosses qui déforment puis relâchent des languettes de longueur et de masse calculée pour avoir le son souhaité. On a là encore des bits (la bosse c’est le 1, pas de bosse ; c’est 0), un bus pour autant de bits qu’il y a de notes et un programme organisé selon une suite répétitive sur une rotation du cylindre ou du disque.

Pour ceux qui ont vu des métiers à tisser jacquard, là encore il y a ces plis de carton perforés passant par un lecteur décidant de l’organisation des fils du tissu au fur et à mesure de son avance. L’avance, c’est l’horloge qui définit le rythme du travail, elle suit le passage donc la fréquence du fil de trame par la navette.

On a appliqué la même méthode pour les imprimantes avec des bandes perforées selon un code, le code ASCII en 6 ou 7 trous de large donc 6 ou 7 bits qui a été copié dans le bus 8 bits des premiers microprocesseurs, codant tous les caractères et fonctions d’une imprimante. Ces bandes fabriquées et lues par une imprimante, ont servi par la suite de source de contrôle pour des machines numériques de la première génération dans un langage adapté aux commandes numériques pour l’usinage comme les tours et fraiseuses numériques (code iso ou code G par exemple). On avait pour chaque machine une bibliothèque de bandes contenant les programmes créés pour chaque pièce. Donc le processeur mécanique est déjà une vieille affaire, même si pour l’imprimante et les commandes numériques, c’est l’électronique qui l’a rendu possible. Il serait peut-être plus exacte d’appeler ces processeurs des séquenceurs, mais ils sont bien les ancêtres des processeurs beaucoup plus riches en ordres et beaucoup plus souples qui ont suivi. Les processeurs se sont inspirés directement des séquenceurs comme point de départ de leur fonctionnement. Ils ont surtout gagné de la souplesse grâce à l’électronique. On remplace une séquence rigide par un programme qui change de décisions en fonction de ce qu’il peut lire sur ses entrées par exemple.

Détails sur le langage : BIT (information binaire donc égale à 0 ou 1 seulement), Octet (information de 8 bits), Ko (milliers d’octets), Mo (Megaoctets: millions d’octets), Go (Gigaoctets: milliards d’octets), To (Téraoctet: 1000 milliards d’octets), Zeta octets :1000 milliard de milliards d’octets. Hz (hertz: fréquence en nombre de répétitions par seconde par exemple pour une horloge) on peut donc trouver : KHz, MHz, GHz, THz etc…

Page 3

Le processeur est organisé pour lire un programme copié dans sa mémoire et le réaliser. Il peut lire, écrire, comparer, calculer, en suivant pas à pas un programme dans sa mémoire. En comparant avec des situations prévues dans son programme, le processeur peut changer de déroulement de programme. Il se déroute, vers d’autres lignes pour s’adapter. C’est sa souplesse et sa vitesse dans le suivi de son programme qui font sa performance. L’avance des opérations du processeur qui était à l’origine de 1 à 4 millions de pas par secondes au rythme de son horloge est aujourd’hui de l’ordre de 4 milliards d’avances par seconde soit 4GHz d’horloge. La mémoire va malgré tout moins vite et le rythme des opérations demandées par les programmes très souvent n’a pas besoin d’une telle vitesse. Il y a chez le programmeur le souci de se faire une autre horloge qui est alignée sur les besoins de l’utilisateur ou du spectateur pour suivre le rythme demandé par le programme comme dans la page précédente pour la fréquence du métier jacquard alignée pour son horloge sur chaque passage du fil de trame. La vitesse du processeur sert à préparer sans gêner et à temps ce qui est nécessaire entre deux ordres du programme utilisateur. De plus il faut répondre à d’autres demandes éventuelles qui se déroulent dans le même temps, un peu comme un serveur dans un restaurant qui doit se partager entre les différents clients. L’ordinateur, lui peut se partager entre plusieurs programmes qui tournent en même temps.

La mémoire dans laquelle travaille le processeur est composée de barrettes de ‘ram’ que vous avez peut-être vues plus ou moins par hasard. On appelle cette mémoire : ‘mémoire de travail ou mémoire vive’. A chaque fois qu’on éteint ou qu’on rallume l’ordinateur, cette mémoire perd toutes ses informations et repart avec les valeurs les plus folles et le processeur doit nettoyer la mémoire et recharger ses programmes avant de pouvoir travailler. Pour démarrer il n’a donc pas de programme en mémoire, il a un grand désordre. Le processeur a donc besoin d’un programme qui ne perd pas la mémoire, contenu dans ‘une mémoire morte’ qui elle n’a pas besoin d’être alimentée pour garder ses informations. C’est le ‘BIOS’, programme qui donne au processeur tout ce dont il a besoin avant l’arrivée d’un ‘programme utilisateur’ et qui lui donne les moyens de travailler avec son environnement. C’est lui qui sait comment dialoguer avec le matériel pour débuter le travail de l’ordinateur. On trouve son programme dans une puce mémoire sur la carte mère.

La bibliothèque contenant les programmes et informations qu’on peut appeler c’est la ‘mémoire de stockage ou mémoire de masse’. Par exemple, vous stockez dans un disque dur, dans une clé USB, dans des CD ou DVD.

Les barrettes mémoires ont beaucoup évolué en format et en vitesse. Si on saute les premières qui ne vous concernent plus, on a la DDR (appelée aussi pc3200 pour 400MHz), la DDR2 (pc6400 pour 800MHz), la DDR3 (pc12800 pour 1600MHz) et actuellement la DDR4 dont la fréquence idéale serait 3200MHz pour une pc25600. On voit apparaitre de la DDR5 multipliant encore par 2 la vitesse. De plus, elles ont un volume en Go (milliard de mots de 8 bits). Une encoche au milieu de la barrette, placée à un endroit légèrement différent d’une version à l’autre permet de ne pas se tromper de famille pour les installer et d’en respecter le sens. Ces fréquences ne sont que des fréquences apparentes. La réalité est plus complexe, voir internet pour les curieux ; CPUZ vous en donne un petit aperçu. Il faut malgré tout ajouter que les mémoires ont une gestion du temps très serrée avec un nombre important de paramètres qui découpent leur temps d’accès et en assurent le bon fonctionnement. La page ‘mémoire’ de cpuz présente une partie du timing de vos barrettes de rams en nombre de coups d’horloge (clocks) pour chaque étape de leur accès et gestion. On appelle cette famille de rams de la ram dynamique car leurs informations ne sont accessibles qu’un court instant de leur cycle de gestion. Une erreur dans ce cycle rend impossible leur usage et chaque barrette a le sien. A l’origine de cette famille, on ne se préoccupait que des 2 temps de cycle appelés ‘ras’ et ‘cas’. La vitesse de gestion a tellement augmenté que maintenant il est nécessaire de suivre ces mémoires beaucoup plus lentes que le processeur avec beaucoup de précision et de détails pour les pousser au maximum de leur vitesse d’où le nombre important de paramètres.

Le processeur a longtemps géré à lui seul tout son environnement. Aujourd’hui, on lui donne 2 ou 3 gros circuits intégrés appelés le Chipset qui lui sont exactement adaptés pour gérer les disques durs, les USB, les lecteurs DVD, très souvent l’écran, le clavier, la souris, la mémoire sauf pour la DDR3 et la DDR4 qui ont été redonnées au processeur, pour lui laisser le seul travail où il est indispensable : gérer les programme et calculer. Le chipset fait le lien entre les entrées-sorties de l’ordinateur et le processeur. Dans le processeur, quand un calcul devient trop complexe ou trop lourd, pour aller plus vite et le libérer, on utilise un sous circuit appelé ‘FPU : Floating Point Unit ’ qui est un processeur adapté aux grands calculs comme une grosse calculatrice. Il est gravé sur la puce du processeur et avec les multi-cœurs modernes, il y en a un par cœur habituellement. Autrefois, quand il n’y avait qu’un cœur, c’était un circuit du chipset et on l’appelait ‘coprocesseur’. Depuis que la mémoire est gérée par le processeur, les 2 circuits principaux du chipset appelés ‘nord’ et ‘sud’, se réduisent progressivement à 1 seul. Les cartes mères Ryzen n’ont plus qu’un radiateur pour le chipset. De plus une partie des entrées sorties est redonnée directement au processeur chez les Ryzens.

Aujourd’hui, on trouve des microprocesseurs (petits processeurs) dans énormément de produits comme les cafetières électriques, les machines à laver, les robots ménagers, les fours électriques, les micro-ondes, les horloges, les téléviseurs, les appareils photo, les autoradios, vos véhicules, la caisse de votre super-marcher etc… Il faut ajouter les éléments de votre informatique comme les disques durs, le graveur, les imprimantes, vos écrans, vos souris, vos claviers, vos webcams. Ils ont leur programme dans une EPROM (Electrique PROgrammable donc une mémoire morte mais programmable). Ils ont en plus une mémoire de travail, et évidemment un processeur, des interfaces de puissance pour piloter le matériel, le tout fréquemment en un seul circuit intégré sauf très souvent l’interface de puissance, et parfois, on peut, en liaison directe ou par internet, changer le programme de l’eprom pour corriger les erreurs de conception, donc faire le suivi technique. Tout ce qui présente un peu d’automatisme ou simplement de la réflexion voir du calcul est concerné. Cela simplifie la conception, la rend très modifiable, réduit l’électronique à très peu de composants. Cela réduit aussi le temps d’étude des produits. En 1978 à l’arrivée des premiers microprocesseurs, le temps d’étude d’un nouveau produit est passé immédiatement de 2 ans à 6 mois pour des études de haut niveau. Pourtant on en était seulement au premier contact avec des techniciens novices en la matière vue la nouveauté de ces produits.

Image4

Image5

Image6

Image7

Image8

Cœur : processeur presque completdoncici : 6 processeurs en 1 circuit intégré à 938 broches. Processeurs récents : jusqu’à 24 coeurs

Core speed : vitesse d’un cœur ici au repos à 842MHz (économies d’énergies) la fréquence plein régime est de 3894MHz ici.Bus speed : référence du générateur d’horloges : 210.7MHz donc 4 x210.7 = 842.87MHz au repos,10x210.7=2107.2MHz pour le ht link, 16.5x210.7=3476MHz (vitesse de pleine puissance), 18.5x210.7=3900MHz (vitesse turbo) . Sans ‘overclocking’ on trouverait : ‘ bus speed’ à 200MHz et tous les autres chiffres suivraient dont ‘core speed’ : 800MHz à 3300MHz, 3700MHz en turbo et ‘ht link’ à 2000MHz qui sont les valeurs par défaut de ce processeur.

FPU (Floating Point Unit) : unité de calcul à virgule flottante (une par cœur soit 6 au total sur le phenomII)

Cache : mémoire tampon(réservoir) très rapide,stocke les informations pour les lire ou les charger beaucoup plus rapidement que le débit normal.

Cache L1 : vitesse mémoire 120 000 à 160 000 Mo/s si données inférieures à 64Ko (ordre de grandeur pour le PHENOMII)Il y en a 1 par cœur soit 6 en tout. Ces valeurs ne changent pas aujourd’hui.

Cache L2 : vitesse mémoire 40 000 à 60 000 Mo/ssi données inférieures à 512Ko. Il y en a 1 par cœur soit 6 en tout. Aujourd’hui jusqu’à 150000

Cache L3 : vitesse mémoire 20 000 à 40 000Mo/ssi données inférieures à6MO (1 seul commun à tous les cœurs). Aujourd’hui jusqu’à 120000

Sans cache : vitesse mémoire 10 000 à 20 000 Mo/s (quand le volume de données est supérieur au cache : vitesse du bus). Aujourd’hui jusqu’à 60 000Mo/s

La mémoire est limitée à 3GO pour Windows XP ou pour Windows 7/32. Pour Windows 7/64 on peut installer 4Go, en général suffisants, voire 2 X 4Go pour profiter des 2 canaux mémoire (attention à lesplacer comme il est préconisé sur le document de la carte mère pour les mettre sur 2 canaux différents et avoir le cumul pour un accès doublé).

Le PHENOM II x6 n’existe plus, AMD propose le FX 6300 ou le FX 8150 en plus puissant (8 cœurs) voir le FX 8350 (8 cœurs 4GHz). A noter qu’il n’y a que 3 FPU sur le 6300, 4 FPU sur le 8350et qu’ils perdent donc de la puissance de calcul par rapport au phenomII et ses 6 FPU. Dernièrement on trouve les Ryzen1600, 2600 ou 3600 pour au moins 30% de mieux, corrigeant les défauts de la génération FX.

J’ai choisi le ‘PHENOM II’ car il est simple de structure et tout à fait représentatif de l’évolution actuelle avec des caractéristiques proches des FX (voir page 46). J’ai choisi aussi le ‘3200+’ car c’est vraiment la dernière génération simple cœur très présente encore en 2011 pour AMD. C’est une puissance qui nécessite le passage aux multi-cœurs pour retrouver un peu de confort. La génération multi-cœurs s’est vraiment développée fin 2011 avec l’arrivée à des prix attractifs des 4, 6 et 8 cœurs en DDR3.

Intela fait le même genre d’effort qu’AMDen mieux réussi(environ 1/3 de mieux dans les tests pour le I7 6700 par rapport au FX8350) mais il est vraiment très cher. Avant l’époque du 3000+ c’était AMD qui dépassait INTEL d’un tiers d’où le nom 3000+ pour une fréquence de 2000MHz même si le calcul appartenait déjà au passé, comme le montre le tableau page 46 pour les 3 premières colonnes (processeurs en x1 et x2) car dans ce tableau le 3000+ est plutôt en retard par rapport à Intel, mais ce n’est en fait qu’un 2 GHz, ce qu’il ne faut pas oublier et les tests ont été réalisés en fin de leur existence commerciale. L’arrivé récente des Ryzen d’AMD corrige ces 30% de décalage de vitesse entre INTEL et AMD, on est plutôt à 5% d’écart maintenant sur la vitesse d’un coeur. Pour la puissance multi-cœurs, ce serait plutôt AMD qui prendrait la tête, voir les paragraphes sur les Ryzens.

Page 7

Disques durs :(deux utilitaires :’ cristaldiskinfo’ et ‘hdtune’)

Le disque dur est un support magnétique au même titre que la bande magnétique sauf qu’il s’écrit en ‘pistes’ circulaires, partagées en ‘secteurs’ (arcs de cercle distribués en parts de camembert sur les vieux disques). Sur les disques récents, les secteurs très nombreux sont décalés pour garder une longueur constante à ces secteurs même au centre du disque. Cela permet d’écrire le disque avec la même densité maximale sur tout le disque jusqu’au centre. Il y a donc moins de secteurs par tour au centre du disque (diamètre plus petit), et le débit des données est donc plus faible au centre pour une vitesse constante. Le disque dur nécessite l’écriture d’une trame qui borne et numérote les cases (les clusters) destinées à accueillir l’écriture des données, c’est le ‘formatage’. l’unité minimale d’écriture est le ‘cluster’, donc c’est lui qui possède les informations d’adresse nécessaires. Le cluster contient un nombre entier de secteurs plus petits que lui et ces secteursn’ont pas d’adresses sauf celle du cluster (dimension habituelle des secteurs : 512 octets). C’est un peu comme déposer en vrac des sacs dans un tiroir (le cluster). Donc quand on commence la lecture d’un cluster, on lit obligatoirement tous ses secteurs, car c’est une seule dimension accessible par son adresse. Le format prend une place importante sur le disque ce qui explique la différence entre la capacité annoncée de vos disques et celle affichée par l’explorateur (2.75To utilisables pour un disque de 3To donc 250Go pour le format). Les fichiers ont une adresse enregistrée dans une table avec leur nom etla désignation des clusters occupés par ces fichiers. Un cluster peut contenir plusieurs milliers d’octets. Il est occupé dès qu’une écriture a été réalisée et n’accepte pas d’autre écriture, même si son contenu est d’un seul octet. Par conséquent, si les clusters sont grands, à chaque fois qu’un cluster n’est pas plein, on perd un espace disque important. Le dernier cluster de chaque fichier est incomplet (en moyenne à moitié plein ou à moitié vide si vous préférez), ça fait beaucoup de vide pour des disques où on trouve plusieurs centaines de milliers de fichiers. Il serait donc préférable de créer des petits clusters ? Mais les petits clusters ralentissent le disque et le format prend alors plus de place ! Si on efface un fichier, ses clusters sont à nouveau disponibles à l’écriture et peuvent être écrasés par une autre écriture.

Pour se protéger des erreurs, les fichiers effacés sont stockés dans la corbeille. C’est une opération très rapide car ils ne sont en fait pas déplacés, mais leur adresse est attribuée à la corbeille. Il vaut mieux ne pas la vider trop souvent pour que cette sécurité fonctionne, surtoutsi vous avez un gros disque dur ou la place ne manque pas. Si vous les avez effacés par la touche ‘suppr’, ils ne vont pas dans la corbeille et leur adresse est effacée. Cependant, ils ne disparaissent pas du disque car leurs clusters restent en l’état. Tout n’est donc pas perdu mais il faut arrêter de travailler immédiatement en cas d’effacement erroné pour ne pas prendre le risque d’écrire sur ces clusters qui sont à nouveau libres d’écriture. Téléchargez ‘recuva’ qui est gratuit et qui vous proposera une recherche des fichiers effacés sur votre disque. Il vous dira s’ils sont encore en bon état et vous demandera de sélectionner ceux que vous voulez récupérer, vu qu’ils n’ont perdu que leur adresse dans la table d’allocation des fichiers. J’allais oublier un enregistrement à la tête du disque le ‘MBR’ (Master Boot Record : enregistrement de démarrage du disque) qui permet l’accès aux partitions et aux adresses des écritures mémorisées dans la ‘table d’allocations des fichiers’. Le disque dur peut être partagé en plusieurs disques virtuels (disques traités comme des disques réels par Windows avec une lettre et un nom), ce sont les partitions. C’est un peu comme si on appelait ‘livres’ les chapitres d’un livre, ce qui reviendrait à pouvoir mettre plusieurs livres dans un livre. Si vous avez un disque partagé en 2 partitions, une pour Windows et l’autre pour les documents, votre partition pour les documents est beaucoup moins perturbée, sauf pour les bases de données, car c’est la partition de Windows qui est de loin la plus sujette à écritures. Donc vos documents effacés seront disponibles plus longtemps pour les récupérer.

Les adresses des fichiers ont d’abord été écrites en 12 bits soit 4096 emplacements disponibles, puis, rapidement, en 16 bits soit 65536 adresses maximum possibles. Le disque était alors formaté (distribué) pour accepter cette quantité maximale de clusters. C’était la ‘FAT16’ qui convenait à de tout petits disques. Mais la taille des disques augmentait, il a fallu beaucoup plus d’adresses. (FAT : Format Adress Table en anglais : il n’y a pas d’erreur d’écriture, vous faites de l’anglais sans le savoir)

On est passé à une écriture des adresses en 32 bits ?En fait pas tout à fait, pour l’adresse, on a réservé 28 bits sur les 32 soit 268 435 456 adresses maximum. C’était la ‘FAT32’, le nouveau format des disques à qui on a préférépar la suite le ‘NTFS’ (NT Fat System) qui était la FAT de Windows NT, cette fois ci avec 32 bits pour les adresses des clusters soit 4 294 967 295 adresses possibles. Il y aurait d’autres sortes de FAT (organisations des fichiers) mais elles n’apporteraient rien de plus pour comprendre la démarche. On a donc formaté en NTFS, même si on trouve encore des clés USB formatées en FAT32 que les cartes mères savent toujours reconnaitre, jusqu’au jour où les disques ont dépassé 2,2 Tera Octets (2,2 millions de millions d’octets ou, si vous préférez, 2200 milliards d’Octets). Pour info, on trouve aussi des formats en ‘exFAT’.

On a alors tout bouleversé et avec l’UEFI, on s’est armé pour accepter les très grands disques qui posent problème aux anciennes cartes mères, car elles ne peuvent pas dépasser ces 2,2 Tera octets. On a donc fait un nouveau BIOS, appelé UEFI, pour comprendre ces très grands disques. Ce BIOS comprend les anciennes FAT et le NTFS évidemment. En UEFI, les disques durs ont une nouvelle structure, on prépare les très grands disques (plus de 2,2 Tera Octets) en mode ‘GPT’, sinon on ne connait que les 2,2 To de contenu sur ces disques. L’UEFI accepte jusqu’à 128 partitions pour un disque de 9,4 Zetta octets maximum (9,4 milliards de Téra octets soit 4 milliards de fois la limite de 2.2To précédente). Imaginez 4 milliards de grands disques en un seul super-disque, on n’est donc pas prêts à proposer une telle capacité. La vieille structure est toujours présente derrière cette nouvelle présentation, donc elle peut toujours accueillir les Fats. Windows propose à l’arrivée d’un disque neuf le choix entre ‘disque GPT (pour les très grands disques) ou disque MBR (comme avant l’UEFI)’. Evidemment, il faut formater le disque, de préférence en NTFS dans les 2 cas. Noter que le NTFS accepte des disques plus grands que les 2,2 TO, le nombre d’adresses possibles convient encore à ce jour, donc tout va pour le mieux, mais, jusqu’à quand ? On peut répondre : jusqu’à une taille trop grande pour les clusters qui obligerait à changer leur nombre maximum, ce qui semble peu probable aujourd’hui. Pour modifier le choix GPT ou MBR, il faut repartir à zéro par un ‘clean’ du disque, voir la recette sur internet. Attention ! C’est une opération qui efface tout : toutes les partitions du disque disparaissent. Alors votre disque est à nouveau traité comme un disque neuf. Noter par contre qu’après un simple formatage rapide, on peut revenir en arrière et retrouver l’ancienne partition, si on n’a rien écrit sur son disque.

Page 8

Une des conséquences de l’UEFI, c’est qu’auparavant, on pouvait traiter indépendamment les partitions. Par exemple, on installait une partition system (partition Windows) et une partition pour les documents qui était protégée en cas de scratch de Windows. On pouvait refaire la partition de Windows sans toucher à la partition des documents. Depuis l’UEFI, la partition des données est à refaire en même temps que la partition de Windows. La protection des données s’écroule et nécessite de les sauvegarder à chaque fois qu’on touche à la partition system. C’est une sécurité en moins. La seule solution, c’est d’installer un 2eme vrai disque pour les données qui sera protégé si le 1er a un problème. Par exemple un SSD pour le system (pour Windows) et un disque dur mécanique à l’ancienne plus grand pour les données. Pour les portables, ce n’est pas possible car on ne peut installer qu’un disque, mais Ils ne sont pas tellement touchés pour l’instant par l’usage des très grands disques. J’ai cependant vu des portables qui acceptent un SSD en mini-SATA pour 2eme disque. On peut attendre la disponibilité d’un port ‘SSD M2’ voire M2X4 pour les nouveaux SSD sur les carte mères modernes en plus des ports SATA pour les autres disques durs. A noter que les nouveaux portables, n’ont plus très souvent de disque dur, et se rapprochent du SSD.

Le disque dur n’a presque pas évolué depuis de très nombreuses années et reste à la traine de la technologie (100 fois plus lents que la mémoire dans le meilleur des cas, voir 300 à 500 fois plus lents dans certaines circonstances). Seul son volume s’est vraiment développé. Pour avoir un ordinateur rapide et réactif le premier effort porte sur ledisque dur. Sur un ordinateur ancien la démarche est payante. Avec un mauvais choix même la plus grande puissance d’un ordinateur n’a que peu d’effet sur le confort d’usage et la vitesse sauf programmes utilisant peu le disque dur. Dans les actions courantes c’est très souvent le disque dur qu’on attend.

Pour les petits disques dur USB attention aux chocs quand ils travaillent car la tête va se déplacer sans contrôle et continuer à écrire même à côté du ‘format’ rendant le disque définitivement hors d’usage. Le formatage bas niveau des utilisateurs ne suffira pas pour le corriger dans de nombreux cas. Une fois éteint il est beaucoup moins fragile. Il arrive aussi sur les petits PC que le disque dur externe grille le port USB sur lequel on le branche ; les bonnes cartes mères le supportent. Il y a parfois des câbles USB avec 2 prises à une extrémité; branchez les 2 prises pour diviser par 2 le courant demandé à chacune sur l’unité centrale (ordinateur).

Pour surveiller vos disques, il y a les informations S.M.A.R.T, qui vous présentent un résumé sur l’historique de vos disques, dont, les erreurs rencontrées. Pour y accéder, téléchargez ‘cristaldiskinfo’, parmi les nombreuses offres sur le sujet. Il vous permettra d’anticiper sur les risques de vos disques en soulignant les erreurs graves et menaçantes et il vous dira si le disque est en bon état.

SATA :

La connexion SATA est une connexion série pour les disques durs donc les bits de données se suivent les uns après les autres sur 2 paires différentielles (Din+ Din- Do+ Do-) d’où le petit câble de liaison contrairement à l’ancienne nappe IDE qui présentait les bits d’adresse et de données en même temps (8 ou 16 bits de données car le 32 bits est un 2x16 en IDE). Le 2eme câble, avec la plus grosse prise, c’est le câble d’alimentation (12V et 5V). Il existe des SATA150 (SATA I), des SATA300 (SATA II) et des SATA600 (SATA III) ;ceux-ci proposent un débit de 600Mo/s seulement le temps de vider ou de remplir le cache du disque (souvent 64Mo), ensuite le débit varie à la vraie vitesse de lecture des pistes, de 130Mo/s à la périphérie du disque à 70Mo/s au centre du disque pour un disque rapide. En effet, il y a moins de secteurs par tour au centre du disque que sur la périphérie donc en 1 tour de disque on lit moins d’informations au centre.

Ce qui gêne le plus pour tous les disques c’est le temps d’accès qui se reproduit à chaque changement de position de la tête magnétique sur le disque (12 à 20ms). Ce temps peut se restreindre pour des pistes proches. On perd du temps aussi à chaque changement de lieu de travail sur une piste (le temps d’une rotation de disque soit un maximum de 2ms pour 7200Tours /min). En fait la tête passe la plus grande partie de son temps à chercher son nouvel emplacement de travail. Donc l’ordinateur passe son temps à attendre le disque. Une vitesse de rotation rapide améliore le temps d’accès et la vitesse. Quand on traite de nombreux petits fichiers le débit du disque dur peut descendre à 30Mo/s voire 10Mo/s. Il ne faut pas espérer plus de 80 accès par seconde pour un temps d’accès de 12mScontre 70 000 accès par seconde (appelé IOPS) pour certains SSD ; c’est comme cela que le disque dur mécanique perd beaucoup de temps (le temps de déplacement de la tête).

Si vous voulez des détails sur les performances de vos disques durs, téléchargez ‘HDtune’. Il faut ajouter que si la mémoire est trop petite, Windows transfère une partie de ses activités en mémoire virtuelle sur le disque ce qui crée un très gros ralentissement d’où le conseil d’installer au moins 4Go de mémoire en Win64 (3Go en Win32 j’ai même vu des cas ou on ne pouvait pas dépasser 2Go).

En parlant du temps d’accès, il arrive que certains fichiers soient dispersés sur le disque en nombreux morceaux. On parle alors de fragmentation : 50 accès disques pour lire 1 seul fichier enregistré en 50 morceaux, cela demande 50 x 0.010sec soit 0.5 secondes pour undisque rapide pendant lesquelles on se contente de déplacer la tête du disque pour accéder à chaque morceau. J’ai vu jusqu’à 8000 fragments pour 1 seul fichier soit jusqu’à 80 secondes perdues! Il est conseillé 2 ou 3 fois par an (trop souvent risque de diminuer la durée de vie du disque dur) de défragmenter le disque pour éviter ce ralentissement supplémentaire. Opération à ne pas faire avec un SSD (il se gère tout seul avec ‘trim’). Pour un programme de défragmentation des autres disques, il y a ‘Defraggler’ sur le net, fiable et facile à comprendre ou l’outil des disques durs de Microsoft, voire : propriétés du disque dur (outils). La défragmentation a un double but : mettre bout à bout les fragments dispersés et réorganiser les fichiers pour limiter les espaces vides entre les fichiers favorisant la fragmentation.

Image10

Pour les disques durs, le 3.3v des connecteurs n’est pas utilisé, d’ailleurs, il n’est même pas câblé car il n’y a que le fil jaune pour le 12V et le rouge pour le 5V, le noir étant le 0V, c’est-à-dire la masse.

Caractéristiques de quelques disques durs 1To western digital :WD caviar green : temps d’accès : 15 à 18ms. Cache : 64 Mo. vitesse de rotation 7200T/mnprix 50à70€WD caviar black : temps d’accès 12 ms.cache 64 Mo ; vitesse de rotation 7200T/mnprix 80 à 110€WD caviar blue : temps d’accès 13 à 14 ms. cache 32 Mo. Vitesse de rotation 7200T/mnprix 50 à 70€WD Vélociraptor : temps d’accès 8 ms. Cache 64 Mo. vitesse de rotation 10000T/mnprix 180 à 250€

SSD : 128Go, temps d’accès 0.04 ms max, cache 512Mo, 70 000 accès/sec,500Mo/sprix 40 à 60€

WD Vélociraptor : disque hors compétition vu ses caractéristiques exceptionnelles mais trop cher. Mieux vaut prendre un SSD pour avoir des caractéristiques encoreplus élevées à moins cher (un SSD + un disque dur mécanique, cela fait un total de moins de 150€) . Sans utiliser de SSD, le disque conseillé serait chez western digital le ‘caviar black’ (le meilleur dans sa génération mais plutôt fragile) ou en moins performant le caviar Blue. Le ‘caviar green’ en wd10ears est une catastrophe en disque système prendre un wd10ezrx qui fonctionne très bien. Les ‘caviars red’ m’ont un peu déçu : c’est peut-être le prix à payer pour avoir des disques plus résistants. On peut dire qu’avec la présence d’un SSD, les disques mécaniques sont réservés aux données ; par conséquent, ils peuvent être moins performants. En disque system d’autres marques ou modèles peuvent convenir mais attention au temps d’accès et à la vitesse (pour un disque système proscrire le 5400t/mn). Il serait dommage de saboter une configuration pour 20€ d’écart. Le débit moyen passe de 130Mo/s à 97.5Mo/s à la périphérie du disque et de 70Mo/s à 52.5Mo/s au centre du disque avec un 5400 tours/min soit 75% seulement de la vitesse des 7200 tours/min. De plus, cette vitesse peut varier avec la taille du disque, Il ne faut donc pas la prendre pour un chiffre exact. Le débit suit le nombre d’informations par tour et les tours/minute du disque. Le choix du disque dur est beaucoup moins important quand il y a un SSD. On peut alors choisir un disque dur bas de gamme sans risques si on respecte les sauvegardes. Il faut savoir que les accès au disque system sont extrêmement nombreux, souvent pour lire seulement quelques détails. Le nombre d’accès disques par seconde est très important. Par contre les accès aux disques de données, sont peu nombreux et portent sur de grosses valeurs sauf pour le travail sur les bases de données; ils sont donc moins handicapants.

NB : Formatage bas niveau : On écrit tous les clusters, données comprises, à zéro, entièrement pour être sûr qu’il ne reste rien des évènements antérieurs. Le formatage complet se contente d’écrire entièrement tout le format et rien d’autre donc on ne modifie pas le contenu des données, les adresses sont perdues. Le formatage rapide ne touche pas au détail du format mais le réinitialise, la table d’allocation des fichiers repart à zéro. Souvent un formatage rapide suffit et le disque est apparemment vidé même si la recherche de fichiers effacés peut encore fonctionner, on peut donc revenir immédiatement en arrière dans ce cas. Noter qu’un formatage ne peut pas écrire en dehors des pistes, ce qui explique qu’on peut par accident d’écriture perdre définitivement un disque dur, car les écritures à côté des pistes par un déplacement accidentel de la tête lors d’un choc ou d’un accident électrique sont définitives et parasitent la lecture, rendant le disque instable.

Page 10

Le SSD :

Mémoire de type proche des clés USB emballée, connectée et gérée pour répondre comme un disque dur SATA (il y en a en connexion IDE mais ils n’ont que très peu d’intérêt), les SSD présentent des débits moyens très élevés voisinant le maximum des liaisons SATA soit 500MO/s en SATA 600 sans l’inconvénient du temps d’accès des disques durs puisque sans mécanique. Seule la gestion et la recherche des adresses constituent le temps d’accès soit moins de 0.04ms contre 10ms pour un disque dur mécanique. A noter un temps d’écriture plus long que la lecture mais toujours ultra confortable. Le temps d’écriture est amélioré par une mémoire cache et les chiffres de la vitesse d’écriture sont donc artificiellement gonflés. Il faut aussi dire que le nombre d’écritures par case est limité environ à 3500, au mieux 5000 pour certains SSD, éviter les TLC (1500 écritures maximum par cluster) c’est le cas de la série ‘EVO de Samsung’ ; c’est malgré tout la tendance du moment pour toutes les marques ; aujourd’hui, on ne peut plus faire le difficile. Cela nous mène en écrivant le disque en entier chaque jour à 5 ans d’usage. Il n’y a donc pas de problème de durée de vie à proprement parler. Il faut ajouter que l’absence de mécanique lui donne une sécurité de fonctionnement bien supérieure au disque dur mécanique. Il existe sur certaines cartes modernes un port M2 pour accueillir des SSD sans boitiers avec une connexion et un format m2 SATA, voire M2X4 PCIE multipliant par 4 les vitesses d’accès.

Pour améliorer la durée de vie il est proposé un programme qui gère les clusters (cases mémoires du disque) en répartissant les écritures pour ne pas écrire toujours au même endroit et marquer les zones à risque, c’est ‘trim’.Il est conseillé d’installer son système sur le SSD obtenant ainsiune vitesse et une réactivité extrêmes. Un disque dur écrit chaque nouveau fichier au fur et à mesure des trous rencontrés sur le disque sans se préoccuper de la dimension de ces trous, ce qui aboutit à écrire les fichiers en nombreux fragments. Pour les SSD, la fragmentation est de règle, il ne faut pas être surpris et ne pas la corriger car elle n’a pas beaucoup de conséquences pour les SSD et vous diminueriez fortement la durée de vie du SSD ; de plus, les écritures sont faites de façon complexes, pas en temps réel.

Le SSD reste toujours l’élément le plus lent d’un ordinateur mais 10 fois supérieur au meilleur disque dur en vitesse (seulement 20 fois plus lent que la mémoire) et 1000 fois plus rapide en nombre d’accès disque que les disques mécaniques. C’est la seule solution pour être un peu à la hauteur des nouveaux processeurs. Compléter par un disque dur de stockage car le Go SSD est très cher. Le 500Go commence à être accessible (65€ port compris). 120Go est la valeur minimale aujourd’hui pour installer un système sans lui imposer le stockage des documents. Pour les jeux, il vaut mieux installer un SSD d’au moins 250Go (55€) les prix ont bien descendu, et pour un portable il ne faut pas oublier la place du stockage. Ils ne sont pas tous aussi performants, choisissez ceux qui proposent le plus d’accès disques par seconde (70 000 accès/ seconde est une valeur raisonnable appelée ‘IOPS’). La vitesse des SSD a moins de conséquences que le nombre d’accès disque par secondes. Surveiller malgré tout la vitesse d’écriture qui peut être très basse sur certaines fournitures (j’ai vu 180Mo/s). Insister pour la trouver, car elle n’est pas souvent donnée (500Mo/s de préférence). Attention le passage au SSD suppose que : vous savez copier votre disque ou réinstaller Windows sur le SSD. L’autre solution c’est de le réaliser chez un collègue compétent.

Au bout de 2 ans d’usage, la fragmentation d’un SSD peut devenir un peu lourde. Peut-on justifier une réécriture du disque ? Dans certains cas, on peut le comprendre, mais ce n’est pas à encourager généralement. Attendez plutôt un incident qui vous obligera à faire appel à une sauvegarde ou une réinstallation pour repartir sur un disque plus propre. C’est un des cas que vous devez préparer en faisant soit une ‘image’ de votre SSD soit une sauvegarde, quand Windows est plutôt récent avec un degré de mises à jour correcte, de préférence.

Image12

Page 11

Les super SSD

On avait depuis un certain temps des branchements Micro-SATA ou mini-SATA pour accueillir des SSD sans boitier pour un débit en SATA3 de l’ordre de 500MO/s pour les meilleurs débits. Même débit que celui des SSD 2.5 pouces qui étaient fournis avec un boitier identique aux petits disques durs de nos ordinateurs portables, ce qui permettait de les remplacer sans difficultés.

Mais revenons au branchement des SSD sans boitier. On a vu ensuite des branchements M2 SATA qui ne changent rien aux caractéristiques habituelles, toujours avec 500Mo/s maximum. Puis, un branchement pour des M2X4 PCIE, voire seulement M2X2 ou M2X3. En M2X4, on prend 4 lignes d’un port PCIE pour attaquer le SSD avec un débit X4. Si on prend un PCIE2, cela fait 4 X 500MO/s soit 2000Mo/s maximum si on prend un PCIE3, on a 4 X 1Go/s, soit 4000Mo/s. En fait on a généralement moins, soit un maximum de 2500Mo/s à 3500Mo/s pour les meilleurs. De gros écarts d’une fourniture à l’autre sont proposés, il faut donc y regarder de très près, surtout pour la vitesse d’écriture gonflée par la vitesse du cache. La vitesse est donc multipliée par 4 par rapport à un SSD habituel. Mais, c’est surtout le nombre d’accès disque par seconde qui est efficace soit 200 000 accès disque/sec sur les SSD M2X4 au lieu de 70 000 sur le SSD habituel (appelées généralement IOPS : nombre d’opérations par seconde) . Pour rappel, un disque dur mécanique atteint tout juste 70 accès disques par seconde.

Pour situer l’efficacité, avec le ‘disque à papi’, on compte 2 minutes de démarrage de Windows pour un débit de 80Mo/s et un ordinateur rapide bien chargé en logiciels. Avec le SSD SATA de base, et un ordinateur rapide ; on arrive à 10 secondes de démarrage et avec le SSD M2X4 PCIE, on arrive à moins de 3 secondes sans compter le temps du bios!

Ces super-SSD atteignent les limites de gestion du processeur, les lignes PCIE étant les liaisons les plus rapides sur un ordinateur. Attention, tous les SSD M2 ne sont pas des X4, si vous voyez des vitesses de 500MO/s, vous avez seulement du M2 SATA ; ce n’est pas très clair à l’achat. Seule une vitesse de 2500Mo/s à 3500Mo/s vous garantit un bon choix pour du M2 PCIE. De même que les ports sur lesquels vous voulez les brancher peuvent être seulement des M2 SATA au lieu de M2 PCIE. Bonjour la réflexion pour s’en assurer, surtout que tout le monde ne les appelle pas de la même façon pour en ajouter à votre perplexité. Leur appellation la plus sure, c’est ‘SSD NVME PCIE’. Il faut ajouter que des difficultés de reconnaissance de ces SSD par le BIOS sont possibles et peuvent compliquer leur choix.

Ces ports SSD M2X4 PCIE sont proposés sur les cartes mères très modernes, sinon, il existe des cartes d’extensions PCIE qui vous proposent 1 ou 2 ports avec des vitesses similaires garanties par la liaison PCIE avec des nuances sur la puissance de votre processeur pour les suivre. Pour ce qui concerne les prix, de gros écarts sont proposés, avec en tête les séries ‘EVO’ malheureusement (environ 50€ pour un SSD M2X4 de 250Go) ; faites très attention au débit proposé. Attention, il y a parfois des incompatibilités d’humeur (bugs) entre le SSD M2X4 et votre carte mère qui devraient se résoudre dans les années à venir et qui touchent les Samsung EVO notamment, éventuellement non reconnus. Il faut ajouter qu’installer un SSD PCIE X4 vous fait perdre 4 lignes d’un port PCIE sur la carte mère qui doit se réorganiser différemment.

Image13

Page 12

Si vous avez des disques anciens :

Il faut s’attendre après 2 ans d’usage pour un ordi bien fourni en logiciels à un temps de démarrage complet de win7 (je ne parle pas de ‘sortie de veille’) de l’ordre de 3 à 5 minutes même avec un PC très puissant. Avec un disque rapide vous descendez en dessous de 2.5 minutes. Par contre avec un SSD le temps de démarrage ferait moins de 30 secondes. Juste après une nouvelle installation, il y a une petite période pendant laquelle le démarrage est relativement court, mais au fur et à mesure des installations, des téléchargements et du temps passé notamment sur internet la réalité vous rattrape et la dure loi de l’accès disque vous rappelle à l’ordre. La seule solution pour garder un accès disque performant reste encore le SSD, qui conserve vraiment ses caractéristiques avec le temps malgré la pagaille que vous voyez en regardant la fragmentation de celui-ci. (Ne soyez pas tenté d’y toucher). Chez Intel ces chiffres peuvent être encore meilleurs, il en est de même avec les Ryzen d’AMD. On atteint alors les 10 secondes de mise en route avec un SSD. Avec Win10, le temps de démarrage est raccourci en le préparant pendant l’arrêt de l’ordinateur. Il y a aussi les nouveaux SSD en M2X4 multipliant par quatre leur accès pour des vitesses époustouflantes, rejoignant presque les vitesses des processeurs (plus de 2000Mo/s, 200 000 accès disque/Sec. et 3 secondes de démarrage pour Windows). Il faut ajouter que ces SSD n’atteignent pas les chiffres annoncés par les publicités car ils se heurtent à la disponibilité du system très sollicité à ces fréquences. Petit à petit, les mémoires électroniques (les SSD) remplacent avantageusement les disques durs.

Pendant le démarrage d’un PC :

Windowsva chercher sur le disque dur les logiciels, les fichiers de documents, les fichiers de définition et les fichiers de description de procédure, les fichiers d’initialisation ainsi que des bibliothèques diverses, et on pourrait en ajouter bien d’autres. Il va aussi consulter très souvent la base de registres qui contient des renseignements sur tous les composants fichiers et programmes. Il passe tout son temps à lire le disque dur et à écrire dans la ram ; il fait des milliers de recherches complexes sur le disque ajoutant à chaque accès plus de 10 ms d’attente. L’écriture en ram sur un PC moderne est extrêmement rapide et ne retarde en rien l’ordinateur (un minimum de 10 000 MO/s et 60 milliardièmes de seconde de retard). Par contre l’accès au disque dur est ralenti par une lecture lente(de l’ordre de 10 à 20 MO/s avec un vieux disque dur et de l’ordre de 80MO/s sur un disque dur rapide ; Oubliez les 600MO/s du SATA600 (SATA III) sauf pour un SSD où on tourne vraiment autour des 500MO/s). Mais c’est surtout le nombre d’accès extrêmement faible de l’ordre de 80 accès/s pour un disque rapide qui plombe l’opération! (jusqu’à 70 000 accès/sen comparaison pour un SSD) . De plus les disques des portables sont lents pour ne pas consommer trop d’énergie, ce qui participe à la paresse des portables ; cela s’est amélioré. Le temps de démarrage ne dépend pas beaucoup de la puissance du processeur, mais essentiellement de la vitesse du disque dur. C’est pour cela que le SSD est aussi efficace au démarrage.. Malgré tout, les derniers processeurs surtout ceux d’Intel gagnent du temps au démarrage, On peut le dire aussi avec les Ryzen d’AMD. Avec Win10 une partie du démarrage est préparée à l’extinction de l’ordinateur pour gagner du temps à l’allumage. Si vous avez un double boot, le temps de démarrage s’allonge beaucoup, car Windows revient au démarrage non préparé, vu qu’il n’est pas sûr de la suite à donner. La présence d’un disque mécanique pour un ordinateur avec un SSD ralentie aussi le démarrage car il faut le visiter lui aussi. On reste malgré tout sur un démarrage rapide avec un SSD, avec la possibilité de travailler immédiatement après l’arrivée de l’écran d’accueil de Windows, alors qu’avec un disque dur mécanique, il faut attendre encore aumoins 1 à 2 minutes pour démarrer une activité.

Une fois le démarrage terminé :

Si vous avez un processeur et une carte mère à la hauteur, votre pc devient malgré tout docile et seuls des accès disques complexes peuvent vous importuner : avec le disque à papi vous aurez besoin de 2 à 3 fois plus de temps (j’ai vu jusqu’à 10 fois) pour faire une sauvegarde de votre disque C : mais cela restera supportable malgré tout la plupart du temps.

Si vous disposez au moins d’un dual cores (cœurs) et que votre PC est trop lent, pensez à ajouter un SSD (à éviter en XP) avant de choisir une mise à jour de carte mère et de processeur car c’est un investissement reconductible le jour où vous changez de carte mère et processeur ou tout simplement d’ordinateur, et vous assurez une grosse amélioration de votre confort d’usage immédiatement pour moins de70€ si vous savez le faire. Parfois, sur une tour, on peut changer le processeur pour un 4 cœurs, voire un 6 cœurs à la place de votre 2 cœurs, donc une multiplication par 2 ou 3 de la puissance de votre ordinateur pour 40 à 70€ environ, en direct de chine si vous osez.

Pour doper sérieusement votre PC sans faire de mise à niveau complète, il vous suffit d’ajouter un SSD (Simple cœur s’abstenir sauf peut-être avec un 3000+ ou équivalent si vous y tenez vraiment). Les ‘dual cores’ anciens ont eux aussi une fâcheuse tendance à saturer rapidement avec le temps d’autant plus qu’ils sont installés sur des cartes mères dépassées. Ce défaut qu’on trouve aussi sur les ‘dual cores’ récents est malgré tout principalement dû à la gestion du disque dur devant le gonflement et la profusion des fichiers et des procédures ainsi que des divers parasites logiciels qu’on peut récolter. C’est là que le SSD est utile.

Vous avez un ordinateur portable assez récent qui rame désespérément : Remplacez le disque dur par un SSD, vous ne reconnaitrez plus votre portable. Assurez-vous d’un accès facile à votre disque dur auparavant par une trappe sous l’ordinateur ou un accès sur la tranche et vérifiez qu’il est SATA.Parfois, il faut tout démonter. Choisissez au moins un SSD de 250Go pour être confortable soit un prix approximatif de 45€. Le 500Go devient accessible (55 à 70€). Il faut avoir au moins un ‘dual cores’ avec un disque dur SATA pour tenter l’opération sans risque. Votre disque dur ancien en 2.5 pouces peut vous servir, après le changement, de disque externe (USB) s’il dispose de place suffisante en le mettant dans un petit boitier externe pour 15€. Méfiez-vous aussi de la présence d’un vrai disque dur dans votre ordinateur, ainsi que de la difficulté de démontage pour l’entreprendre.

Si votre carte mère ne dispose que de SATA150(en général c’est au pire du SATA300, pour le savoir, utiliser par exemple ‘cristaldiskinfo’),la vitesse prévisible de votre SSDva chuter de 500MO/s à 150MO/s (seulement 2 ou 3fois mieux que votre disque dur ancien au lieu de 10 à 20 fois mieux avec du SATA600, calculs approximatifs bien sûr) mais le nombre d’accès disque par seconde restera à son niveau maximum, soit 1000 fois plus important que votre vieux disque. C’est donc malgré tout la solution pour repousser une refonte complète de votre PC et trouver une nouvelle jeunesse pour votre informatique ancienne.

Page 13

Les écrans :

Les premiers écrans informatique n’avaient que 256 lignes et le texte ainsi que les images étaient ‘taillés au burin’. A l’époque la télévision avait 625 lignes, mais la qualité des images ne dépassait pas 400 lignes en finesse. Rapidement on est passé à l’écran de 480 lignes de 600 points (600/480) proche de la qualité télévisuelle. Cet écran est resté longtemps l’écran de référence, Il est resté encore plus longtemps en définition de base pour les projecteurs vidéo. Le début d’une définition de qualité c’est le format 800/600 (600 lignes de 800 points). La proposition qui a suivi c’est le 1024/768 (768 lignes de 1024 points) pris comme référence de la vidéo pour DVD en 4/3. D’autres formats proches de la HD ont suivi pour profiter de la dimension des écrans. On pourrait parler du 1280/1024 ou du 1600/1200 qui sont proches des formats précédents. Notez que ces formats 4/3 s’alignent sur celui de nombreuses photos, qui prennent la totalité de l’écran naturellement et correspondent aussi à celui des écrans TV anciens. Un petit rappel : l’anglais nous propose pour le ‘point écran’ le pixel.

L’arrivée de l’écran vidéo pour l’affichage des films au format 16/9 et les débuts de la haute définition ont proposé des formats appelés HD avec beaucoup de pièges. Il y a eu le 720p (1080/720). Il y a eu surtout les HD qui vous envoient alternativement les lignes paires puis les lignes impaires en 2 images successives comme le 720i en 2 images de 360 lignes ou le 1080i en 2 images de 540 lignes. A chaque image on reçoit donc seulement la moitié des lignes soit la moitié d’une image donc on divise par deux la vitesse des informations. Cela revient à du ‘25 images complètes par secondes’ au lieu de 50, ou 30 images au lieu de 60 au format pc. L’autre conséquence c’est que de nombreuses personnes ont acheté de la HD non standard sous forme de ‘petite HD’ ! Le format HD définitif, c’est 1080 lignes de 1920 points (1920/1080) appelé 1080p, appelée aussi 2K (1920, c’est presque 2000). Ceci correspond à 1920 X 1080 soit 2073600 pixels donc du 2 Mégapixels. Un des inconvénients de ce format, c’est que les photos présentent deux bandes latérales vides car leur format n’est pas adapté ; c’est très décevant, surtout si on compare avec les fonds d’écran. Des photos 4/3 ou presque (format des vieilles télévisions) sur un écran 16/9, c’est difficile.

Il y a une solution proposée par ‘Irfanview’ (à trouver sur le net), car il propose d’afficher un pourcentage différent en largeur et en hauteur d’image en mode plein écran (100% en hauteur et 130% en largeur à définir dans ‘options’ pour corriger la largeur d’écran en mode ‘plein écran’ ou encore ‘ajuster la largeur de l’image à l’écran’, ce qui revient au même en plus souple). Pour les paysages, le résultat est excellent, on a l’impression d’entrer dans l’image, par contre il donne de l’embonpoint et de bonnes joues aux personnes présentes, ce qui est bien normal avec 30% d’erreur. La correction est facile, il suffit de presser sur ‘Echap’ pour revenir à un écran présentable mais moins agréable. On accède au plein écran par le double clic sur l’écran. La solution trouvée pour les fonds d’écran par Windows, c’est de ne pas afficher le haut et le bas de l’image donc 30% en moins pris sur la hauteur, la photo n’est donc pas complète mais respecte les proportions et affiche le centre de l’image en hauteur et toute l’image en largeur.

Les cartes vidéo très anciennes peuvent avoir un problème pour la HD, mais c’est très rare. Par contre avec l’arrivée de la super HD appelée UHD (Ultra Haute Définition) toujours en 16/9, la vitesse vidéo est multipliée par 4 car on a 2 fois plus de lignes de 2 fois plus de points (3840/2160) donc environ 8 Mēgapixels voire 4K et là, certaines cartes vidéo ne suivent plus.

De plus en plus, on distingue la 4K de l’UHD, qui devient un format de 4096/2160 pour la 4K, soit 4096 points au lieu de 3840 pour la largeur en UHD, en gardant un même nombre de lignes. C’est le dernier né de l’évolution des écrans, qui devrait prendre la place de l’UHD dans les prochaines années. On reste malgré tout proche de l’écran 16/9 avec un nombre de points légèrement supérieur en 4K.

Il faut de la HDMI 2.a pour avoir droit à 50 images/seconde en UHD et même les 25 images/seconde peuvent poser problème avec les cartes vidéo basiques. La nouvelle prise appelée Display Port peut convenir. On arrive à l’obligation d’acheter une carte dont le premier prix est de 100€ (les prix commencent à descendre), ajoutée à un écran UHD de 27 ou 28 pouces pour 250€, pour accéder à l’UHD sur un ordinateur. Alors que la HD vous mène facilement à un écran HD 24 pouces de 130€ et votre carte vidéo habituelle. On peut penser que rapidement les cartes vidéo et les écrans offriront plus facilement l’UHD à un prix raisonnable. Déjà les cartes écran modernes ont tendance à proposer l’UHD.

Aujourd’hui les vidéos UHD accessibles sont rares ; l’intérêt de l’UHD, c’est de s’approcher des définitions proposées par les appareils photo pour les accros du détail. En HD, le grain des pixels est tout à fait repérable notamment sur un ‘27 pouces’ car on est très près de l’écran, par conséquent les photos sont beaucoup plus nettes avec des points 4 fois plus petits en UHD. On trouve facilement des appareils photo avec 20 Méga pixels, voir les photos en 8 Méga pixels au lieu de 2 Méga pixels, ça peut se comprendre. Il faut ajouter que voir l’image en un seul coup d’œil comme c’est le cas si on s’éloigne de l’écran, n’est pas souhaitable. Car dans la nature notre cerveau est habitué à parcourir notre environnement et n’est pas gêné de ne pas tout voir en un seul coup d’œil. Par conséquent être trop près pour voire une photo est plutôt souhaitable, car notre cerveau est habitué à la parcourir et trouve son confort dans les détails.

Il faut ajouter qu’avec l’UHD, les icones, les textes et écrans des utilitaires voient leur taille divisée par 4, par conséquent Ils sont illisibles. Seul WIN10 offre un grossissement des écrans et textes assez souple, tout en gardant la définition maximale pour vos photos et vidéo. Mettez le grossissement à X2 pour corriger (200%). Le passage à l’UHD exige donc le passage à WIN10. Sinon vous êtes obligé de programmer votre écran UHD en HD, ce qui est désastreux vu l’investissement.

J’allais oublier les écrans WQHD en 2560/1440, soit 1.4 fois les chiffres de la HD. Ils sont encore en 16/9. Ils se situent entre la HD et l’UHD. Personnellement, je n’en vois pas trop l’usage sauf qu’ils sont moins chers que l’UHD, les prix commencent à 200€. Je n’ai pas testé leur lisibilité.

Il y aurait aussi les écrans super-larges en 21/9. C’est un format très récent, en 3440/1440 la plupart du temps,pour des besoins très spécifiques et limités (peut éviter l’usage de 2 écrans pour les joueurs).

Pour la dimension des écrans, on mesure la diagonale en pouces, soit 2.54cm/pouce. Pour la qualité des écrans, souvent, les ‘gris-blancs’ sont affichés en blanc avec une perte de tous les détails en teinte claire. Pour éviter ce défaut non visible à l’achat, il est préférable de choisir des marques connues comme ‘Samsung’ excellent pour sa colorimétrie

Image14

Les écrans 3D :

Il existe plusieurs façons de réaliser la 3D, mais cherchez toujours les 2 images (droite et gauche soit une pour chaque œil)!

1ere solution : choisir son image pour chaque œil avec des lunettes.

On peut avec de fausses couleurs et des verres filtrants, choisir la couleur adaptée à chaque image, donc donner à chaque œil sa vision. Ce sont les lunettes avec un verre rouge et l’autre bleu. L’écran affiche la somme des 2 images filtrées en 2 couleurs et n’est pas du tout présentable sans les lunettes. L’avantage, c’est d’utiliser un écran standard.

Le problème principal, c’est une différence importante de la luminosité entre les 2 yeux, La qualité de la perception est très moyenne donc migraine à la clé si vous insistez.

On peut choisir les 2 images, en les présentant l’une après l’autre rapidement ou l’une à côté de l’autre. Il faut alors des lunettes qui activent les verres l’un après l’autre au rythme de l’écran pour présenter à chaque œil seulement son image et au bon moment. Les verres ont un filtre LCD synchronisé sur le rythme de l’écran et sont soit noirs soit transparents chacun leur tour, avec un clignotement plus rapide que l’œil ne peut le voir

La qualité de la vidéo est excellente mais il faut un écran très rapide qui passe d’une image à l’autre (la droite et la gauche) plus vite que notre capacité visuelle. Avec une vidéo à 50 images par seconde, il faut au moins 100 images par secondes, 120 pour du 60 images par secondes. Souvent ces téléviseurs sont proposés à plus de 200 images par seconde, voire 240 pour le 60 images/s. Avec une électronique dans le téléviseur qui pilote vos lunettes soit par infrarouge, soit par radio et au rythme des images. Chaque marque à ses solutions, il n’y a pas de standard sauf sur le format des fichiers.

2eme solutions : un écran qui envoie les 2 images en même temps avec un angle différent pour que chaque œil ne reçoive que l’image qui lui convient. C’est très compliqué et très cher, et on doit se placer au centre des spectateurs pour être dans l’angle idéal. On le trouve sur des tablettes de jeux, mais pas sur de grands écrans car c’est trop compliqué et peu efficace. C’est un peu comme la photo où les personnages changent de position si on la penche d’un côté ou de l’autre mais là, il faut que chaque image atteigne seulement le bon œil sans bouger.

3eme solution : l’hologramme. Beaucoup de médias l’ont présenté dans les fictions, Mais c’est inaccessible dans la vie courante car l’image ne peut pas se former dans l’air transparent, contrairement à ce qu’on voit dans la science-fiction. Par conséquent, il faut un écran 3D très embarrassant, soit un mur de gouttelettes d’eau, soit un brouillard, de la fumée, voir un écran avec un réseau réflecteur très spécial et peu efficace parmi les solutions les plus simples et 2 projecteurs d’images dans un angle différent pour les images droite et gauche.

La souris : Page 15

Evitez les souris trop petites car on les tient mal et on manque de précision. La touche de droite vous sert à demander ce que Windows vous propose (le menu du lieu où se trouve le pointeur de souris). Elle sert aussi à annuler. La touche gauche, c’est pour décider une action. On peut demander d’inverser les 2 touches (peu conseillé). On peut aussi changer la sensibilité du déplacement de la souris dans le ‘panneau de configuration’ à ‘souris’. N’hésitez pas à le faire si vous avez des difficultés pour pointer votre souris là où vous voulez car sur certaines souris de qualité moyenne, on traverse l’écran en quelques cm de déplacement de la souris ce qui est bien trop. Attention ! Chez les traducteurs du français pour votre PC, il y a souvent des erreurs grossières : pour la ‘sensibilité’ de la souris, ils parlent de ‘vitesse’ (trouver ce curseur dans les ‘options du pointeur’, pas dans celui de la première colonne de l’écran ’souris’ sur ‘panneau de configuration’). La roulette sert à faire défiler ou parfois à zoomer. Assurez-vous d’utiliser 2 doigts pour gérer les 2 touches de votre souris, vous éviterez des complications (index et majeur).

Dans les menus proposés par votre clic droit, vous trouvez : propriétés, renommer, supprimer, copier, coller, etc. qui attendent le click gauche pour se réaliser si besoin. Si vous demandez ‘propriétés’ sur un disque vous pouvez voir la place restante pour vos documents, et accéder à ses outils; Sur votre écran, vous avez aussi accès au fond d’écran et à sa résolution (nombre de points écran, en HD : 1920/1080 pixels).

Quand vous commencez une opération où vous voyez un risque d’erreur, ne lâchez pas le clic gauche, mais ajoutez le droit, c’est la seule solution pour annuler et revenir surement au point de départ (d’où l’utilité des se servir de 2 doigts), sinon, en cas de déplacement de fichier, celui-ci se déposera au hasard là où se trouve le curseur de souris quand vous le lâchez et parfois vous le perdrez. Quand vous déplacez, surveillez et attendez le changement de couleur du lieu où vous voulez déposer pour lâcher. De plus il arrive que Windows déplace les répertoires au moment où vous déposez ! Pour lancer une décision, il faut généralement un double clic. Sur internet un simple clic suffit. De plus, recherchez les lieux ou la flèche de souris se transforme en main. C’est l’endroit ou vos clics sont efficaces (c’est là où existe un lien : lien hypertexte).

L’USB :

La prise USB vous offre une alimentation 5V de petite puissance que beaucoup utilisent comme chargeur ou petite alimentation.Ajoutez 2 fils de données qui sont présentés avec les mêmes précautions que votre câble télé (coaxial 50 ohms au lieu de 75 ohms) pour monter en fréquence, câble qu’il ne faut pas couder quand on le range pour ne pas altérer ses fonctions. Il y a eu d’abord de l’USB1 aujourd’hui remplacée pour les PC encore présentables par de l’USB2, pour une vitesse d’environ 20Mo/sec. Windows n’a pas besoin de pilote pour gérer l’USB2.

L’USB3 peut travailler 10 fois plus vite que l’USB2mais pour en profiter il faut brancher un produit USB3. Les maximums sont théoriques ;la réalité est moins rose. Chaque produit USB3 a des vitesses différentes ; on est très loin d’une vitesse respectée pour l’USB3, de plus il faut faire attention à la vitesse d’écriture annoncée, surtout pour de grosses clés. Noter qu’on parle en G(bit)/sec au lieu de Go(octet)/sec ; c’est normal : on transmet bit à bit car ce sont des liaisons série, pour les comparer en Go ou Mo diviser par 10 approximativement. Certains appareils ne se comportent pas correctement avec l’USB3. Dans le doute, l’USB2 permet d’assurer. Contrairement à l’USB2, l’USB3 a besoin de pilote spécifique aux circuits qui le gèrent, et parfois il y a des circuits de marques différentes sur la même carte mère, donc plusieurs pilotes. Les deux prises sont compatibles mais l’USB3 est repérée en bleu. Autre précaution, à partir de 64Go les clés USB ne sont pas lisibles par Windows XP et peuvent poser problème même avec win7 parfois, sans explication claire. Souvent il suffit de formater une clé en FAT 32 pour la rendre lisible comme c’est le cas avec certaines tablettes ou avec XP. Télécharger ‘guiformat’ si besoin pour formater vos clés en FAT32 beaucoup mieux acceptée. Noter qu’on trouve souvent un format en ExFAT. Par contre, la sauvegarde de Win10 exige un disque en NTFS.

Il existe aussi un USB 3.1 2 fois plus rapide que l’USB3, soit 10Mo/s. Je l’ai vu repéré en vert et on voit poindre l’USB 3.2. Il existe depuis peu des ports USB type C avec une prise qu’on peut brancher dans les 2 sens. Ils ne sont pas compatibles mécaniquement avec les prises habituelles et sont prévus pour un usage plus large que les USB d’hier. Prévoir des adaptateurs pour les relier aux USB plus anciens.

On peut y connecter des clés USB, des disques externes, des caméras, votre appareil photo, des clés WIFI, des claviers, des souris, et de nombreux autres appareils. Et même la vidéo, surtout avec les USB de type c. C’est l’accès par excellence des outils externes connectés à l’ordinateur. Pour les adaptateurs USB, pensez à chercher aussi dans les OTG, en général ça marche.

Image15

Image16

Les nouvelles cartes mères voient disparaitre le PCI au profit du PCIE, PCIE2(500Mo/s/canal), PCIE3(1Go/s/canal) et récemment PCIE4(2Go/s/canal). Il faut donc par précaution quand la carte mère en dispose acheter les nouvelles cartes d’extensions au format PCIE. Faire attention à la proximité des cartes écran qui gloutonnent souvent les emplacements adjacents. Problèmes à étudier surtout à l’achat d’une carte mère. Attention les cartes mères des processeurs (simple cœur) des générations précédentes ont en général un port AGP ce qui suppose le changement de la carte écran (AGP en PCIE) en général avantageusement sauf si la prise écranest disponiblesur la nouvelle carte mère. Il faut ajouter que les nouvelles cartes mères abandonnent l’IDE ; par conséquent il faut passer aux disques SATA si ce n’est pas déjà fait aussi bien pour les disques durs que pour les lecteurs graveursDVD, sauf ici pour ASRock. Celui-ci est presque le seul à faire cohabiter IDE et SATA sur ses cartes mères de génération un peu plus ancienne encore présentables, mais elles ont disparu du commerce du neuf.

A ce sujet ne soyez pas inquiet si vous n’avez pas de carte mère très récente. Si les fonctions que vous avez sont au niveau souhaitable, soit : SATA3, USB3 et DDR3, une nouvelle carte mère n’apporterait aucune performance supplémentaire mesurable sauf avec un nouveau processeur plus puissant. N’oubliez pas alors, si vous changez de carte mère, vous serez obligé de réinstaller Windows, voire d’en acheter un autre. On trouve des Pcie4x16, m2X4PCIE, USB3.1, DDR4 sur les derniers PC, mais tout doit changer ensemble et les derniers processeurs sont très chers : 1/3 de plus en Ryzen par rapport au FX pour AMD et les ram en DDR4 sont elles aussi très chères ; elles commencent à baisser.

Les connexions :

Il y a d’abord les bus de données et d’adresses.

Ce sont des liaisons parallèles, une connexion par bit (avec 8 bits on peut compter jusqu’à 255, avec 16 bits jusqu’à 65535….). Au départ pour les données il était de 8 bits, puis 16, et on va dire enfin 32, car il y a toujours un ’32 bits étendu’ qui est la base de l’informatique même aujourd’hui. 32 bits, c’est 4 294 967 296 valeurs possibles à présenter et 64 bits nous mène à environ 18 milliards de milliards de valeurs possibles. Le 64 bits étant un ‘2 fois 32’ évolué et étoffé. C’est pourquoi un ‘Windows 32’ ne peut pas travailler en 64 bits car il n’a pas la clé pour le traiter. Par contre un ‘Windows 64‘ dispose des 2 capacités de travail. Qui peut le plus peut le moins, surtout qu’on parle la même langue. Avec un Windows 64, même si le fossé se creuse petit à petit le 32 bits n’est jamais bien loin. Pour se faire une petite idée des différents formats du langage processeur qui peuvent dépendre parfois du nombre d’octets, sur CPUZ, vous pouvez voir à ‘instructions’ une liste copieuse qui montre la complexité des familles d’ordres qu’un processeur peut comprendre, surtout si vous avez un processeur moderne. Cette liste s’est enrichie au fur et à mesure des besoins des processeurs et des programmeurs. Ajoutons que le bus mémoire en DDR3 est un 2 fois 64 bits avec 2 rams bien disposées qui préparent le 128 bits futur? Pour bien faire il faudrait présenter le bus mémoire de façon plus complexe, mais pour plus de détails, pour les passionnés, il vaut mieux aller sur le net. Le nombre de bits a beaucoup gonflé dans le dialogue avec les cartes écran.

Page 17

Sur le Windows 64 le ‘program files’ appelé souvent ‘programmes’ ou sont présentés les programmes en 64 bits est doublé d’un ‘program files (x86)’ où sont présentés les programmes en 32 bits (pour installer, on peut se tromper de ‘program files’, c’est sans conséquence). Le répertoire 32 bits peut vous être caché par défaut et cela peut par conséquent expliquer que vous ne trouviez pas une application dans ‘program files’ si elle est en 32 bits. Cacher le répertoire 32 bits est pourtant un peu stupide, d’autant plus que c’est là que la majorité des logiciels s’installe. Si besoin, aller à ‘panneau de configuration’, dans ‘options de l’explorateur’ ou ‘option des dossiers’ à ‘affichage’, et choisir ‘afficher les fichiers, dossiers et lecteurs cachés’. Attention, cela présente un risque supplémentaire d’erreurs ; par conséquent il est conseillé de revenir à la situation précédente dès que possible. Le bus d’adresse est lui aussi très développé.

Image17

Il y a aussi les liaisons série :

Où toutes les informations se suivent sur un seul support filaire ou radio, les unes après les autres selon une procédure précise pour en assurer la compréhension voir ajouter un contrôle sur les erreurs de transmission. Il y a la liaison des disques SATA,la liaison des USB, celle à la base des PCIE (borniers d’installation des cartes d’extension), donc la liaison des cartes écran modernes en fait partie. Elles peuvent avoir l’aller et le retour sur le même fil comme dans les liaisons domotique, ou encore comme les liaisons sur les prises 220V de la maison (réseau CPL) voire l’ancienne liaison réseau par coaxial (fil de type semblable au fil d’antenne télé).

Pour le WIFI ou le Bluetooth, il s’agit de liaisons radio. Je n’ai pas cherché les détails (il y a 2 solutions soit 2 sous fréquences soit la même fréquence, sans parler des changements de canal). C’est très complexe. Si cela vous intéresse, voir le net.

Pour les liaisons en 2 fils, on parle maintenant de données+ données-. C’est le cas des clés USB( D+ D-). Pour le PCIE, comme pour le SATA il y a les 2 sens mais en 4 connexions, (DI+ DI-, DO+ DO- avec I pour ‘Input’ : entrée et O pour ‘Output’ : sortie) chaque sens est constitué de 2 fils ‘différentiels’ (si sur un fil on a ‘1’ sur l’autre on a ‘0’ et inversement : 1/0 ou 0/1). La raison est double car on ne sait pas qui va fabriquer les cartes d’extension ni comment, donc il faut prévoir le pire comme le meilleur et pour le SATA la liaison peut être longue, de plus un parasite va offrir au lieu du 1 /0 compris comme un ‘1’ ou 0/1 compris comme un ‘0’, un 1/1 ou 0/0 compris comme ‘rien’ car le parasite agit sur les 2 liaisons de la même façon donc il présente facilement la même valeur sur les 2 connexions. C’est une liaison très sécurisée et beaucoup moins fragile prévue pour des conditions incertaines car un fil assure l’autre à l’envers comme dans un miroir. On les appelle différentielles, car pour les lire, on fait la différence entre les 2 fils : 1-(-1) cela donne 2, avec un parasite, 1-(1)= 0 ou -1-(-1)= 0 au lieu de -2 ou +2 ; le 0 ici est donc le refus de ce bit. On augmente donc aussi la marge de lecture de 2 fois ce qui protège des parasites.

Il y a aussi les liaisons en paires torsadées (différentielles elles aussi), comme les câbles Ethernet(liaison à votre box par exemple ou les liaisons réseau d’entreprise), pour en augmenter la portée selon la logique détaillée plus haut pour les paires différentielles et plus simplement nos fils téléphoniques, en paires torsadées aussi.

Par contre là, pour l’ADSL, il est alors nécessaire d’avoir une porteuse, gérée par un ‘modem’. (Modulateur démodulateur dont votre BOX fait partie), d’où la fameuse ‘synchro’, nécessaire à son fonctionnement. La porteuse est une fréquence modulée (modifiée) par les bits dont on surveille les modulations (modifications) pour y lire les bits ; c’est ce qu’on appelle ‘démoduler’. Il faut prendre le rythme de l’information : synchro de porteuse, ‘synchro bits’ car le signal est très déformé par la distance et il faut retrouver le début et la fin de chaque bit et viser le milieu pour en assurer la lecture ; la synchro, c’est rechercher le milieu de chaque bit ; c’est aussi un peu comme dans un défilé au pas cadencé où celui qui arrive cherche à prendre le pas, sauf que c’est autrement plus complexe. L’avantage, c’est que si on ne comprend pas un bit , on garde le rythme pour éviter les erreurs et voir juste pour ce qui suit.

Ces liaisons sont très souvent de la même famille pour les formats de communication à de touts petits détails près (pourquoi changer de langage si ce n’est pas nécessaire pour des données identiques). On y ajoute simplement de quoi traiter les erreurs, et préciser leurs adresses. De plus, il faut bien respecter la procédure demandée par les circuits intégrés qui gèrent la communication. C’est une des raisons de l’existence des pilotes : pour expliquer à Windows ce qu’il faut respecter pour que ces circuits fonctionnent et lui donner des outils de liaison adaptés.

Page 18

Les multi-cœurs :

Le fait d’avoir plusieurs cœurs n’accélère pas forcément la vitesse. Il permet de réaliser plusieurs ordres en même temps. 8 cœurs c’est 8 opérations qu’on peut gérer au même instant (c’est 8 processeurs en 1). Pensez à une société de 8 personnes. En multi-cœur, l’ordinateur recherche à chaque nouvelle opération complexe les cœurs disponibles pour la réaliser on dit qu’il cherche des ‘threads’ pendant que les autres opérations en cours continuent sur d’autres cœurs. Cela facilite donc le multi tâche et accessoirement la vitesse. Il faut comprendre qu’avec un seul cœur l’ordinateur est toujours occupé. Par conséquent il met du temps à répondre à une demande. Avec 2 cœurs (dual core) il est déjà plus disponible mais après un usage d’un an on dit qu’il rame : 2 cœurs ne suffisent pas car il est facile d’occuper 2 cœurs à 100%. Avec 6 cœurs ou plus (4 cœurs chez INTEL)il y a toujours un cœur disponible pour répondre à une demande. L’ordinateur devient définitivement très réactif. Vous n’avez pas gagné beaucoup de vitesse mais de la réactivité, c’est-à-dire du confort. En conséquence ne sous-estimez pas l’importance du nombre de cœurs même si vous pensez ne jamais demander plusieurs choses en même temps à votre ordinateur, car pour un seul ordre demandé, votre ordinateur va traiter celui-cien plusieurs opérations qu’il va répartir sur les différents cœurs. En fait c’est votre confort d’usage que vous garantissez. ‘Un dual core est assez rapide, vous ne faites pas de travaux sophistiqués’, voilà une réflexion souvent présentée mais elle n’est pas du tout d’actualité. On s’en rend compte au bout d’un an d’usage quand l’ordinateur ne répond plus aux sollicitations. La puissance ne vous concerne peut-être pas mais Il s’agit d’abord du confort qui en résulte. Les duals cores sont des processeurs d’il y a au moins 10 ans, donc totalement dépassés même si on les a boostés d’un petit 10 à 30 % sur les derniers produits. Doubler les cœurs c’est au moins 200% de performance rien que pour la puissance donc pour le confort. Parfois malgré tout un 2 cœurs vieillit très bien pour une raison un peu obscure, liée peut-être aux mises à jour non réalisées ou à la faible charge logiciel voire les deux?

Image18

Image19

Une autre réflexion sur le nombre de cœurs :

INTEL sur un ordinateur neuf ou juste réinstallé tourne beaucoup plus rond qu’AMD, ses processeurs sont mieux adaptés. Il est nettement plus rapide. Mais avec le temps chez INTEL la plupart des I5 perdent leur avantage car tout ce qui s’ajoute à votre insu finit par demander beaucoup de puissance. Le I7 par contre semble se comporter sainement. AMD, malgré ses processeurs un peu moins survoltés avec ses nombreux cœurs dispose de plus de puissance, même s’il parait plus lent à l’état neuf, il est beaucoup moins vite saturé. Le FX x6 après un ou deux ans se comporte très souvent mieux qu’un I5 même s’il est moins rapide. Ce n’est pas par hasard qu’AMD compense depuis longtemps la puissance de ses cœurs par le nombre de cœurs. Si la puissance en multi cœurs est au rendez-vous, le SSD reste toujours nécessaire pour conserver un ordinateur correct longtemps. AMD s’est rapproché d’INTEL avec ses Ryzens, et les réflexions faites pour INTEL sont valables désormais pour AMD dans les mêmes termes avec ses Ryzen3, avec 4 cœurs sans hyper-threading, ils vieilliront mal sans SSD come les I5. On pourrait ajouter que, pour les jeux, même si INTEL est supérieur, le nombre de cœurs aura de plus en plus d’effet dans un avenir très proche, car les fournisseurs de jeux utiliseront mieux la puissance des multi-cœurs, à l’avantage des Ryzens vu leur rapport qualité-prix. Intel se propose de passer les I3 de 2 cœurs à 4 cœurs. De même il passe les I5 de 4 cœurs à 6 cœurs face à la menace d’AMD.

La réactivité, c’est une réponse immédiate et efficace à un clic ou à une autre demande.

Exemple d’activité où la puissance change beaucoup le temps de travail :

Faire une numérisation d’une vidéo ou : transformer une vidéo DIVX de 700Mo pour en faire un disque en ‘ .VOB’ sur environ 4 Go (disque au format défini à l’origine des DVD) ; le temps pour cette opération passe avec ‘Nero’ de 1H30 à 2H pour un ‘3200+ qui n’a qu’un cœur’ à1/2h (DVD gravé) pour un ‘PHENOM II x6’ et ses 6 cœurs, car le plus gros travail concerne les processeur et leur FPU, le disque dur devient donc secondaire et ne gêne pas l’opération. On gagne du temps à chaque fois qu’on est gourmand en processeur et en FPU. On piétine dès qu’on fait appel au disque dur sauf avec un SSD. Un autre exemple : faire une sauvegarde de votre system (fichier de 25 à 30Go) : sur un 3000+ il faut 1h30 à 2h avec ‘Todo Backup’, sur un FX 8 cœurs, on peut descendre à 3 minutes dans certains cas.

Une réflexion sur les spécialistes des tests : leur démarche est intéressante, mais pour eux, être 30% en dessous du meilleur, c’est être hors course et sans intérêt. C’est oublier que la principale évolution qui porte sur 200% de mieux à chaque fois, c’est tout simplement le doublement des cœurs. Il faut acheter à un prix raisonnable. Dans ce cas le nombre de cœurs est le paramètre le plus important. Il faut cependant s’assurer que ces cœurs sont de qualité suffisante car il y a des surprises, en effet, doubler une lanterne, cela fait 2 lanternes. Ne pas oublier que souvent le mieux est l’ennemi du bien, et que la perfection coute très cher, de plus 30% de mieux n’est pas nécessairement révolutionnaire et, il faut encore l’ajouter, tout le monde ne passe pas son temps à jouer. Les tests, mesurent principalement la vitesse, et les jeux utilisés dans les tests, se limitant à 2 cœurs très souvent,ignorent facilement la puissance. Quand on est dans les 30% de tête (je compare aux I7 4 cœurs d’INTEL), on fait partie des grands et on mérite l’intérêt, par respect pour les petits budgets. Les Ryzens ont normalement rattrapé une bonne partie de ces 30%, et pour les plus petits, l’absence d’hyper-threading posera le même problème que pour les I5. Il s’agit des versions de Ryzen3 en 4 cœurs sans hyper-threading qui auront vraiment besoin de leur SSD pour en faire des processeurs très présentables.

N’attendez pas des portables des performances égales à celles des PC de bureau, car leur électronique est fréquemment sous-développée, principalement pour des raisons de consommation, 90W pour un Ryzen, c’est bien trop car il faut limiter la montée en température en raison de radiateurs trop restreints, faute de place et pour respect de la batterie, sans parler des économies pour raisons commerciales. L’alimentation des processeurs des portables se situe généralement entre 15 et 30W, cela fait une grosse différence de puissance.

Image20

Image21

Page 21

Puissance et rapidité :

AMD en FX avec ses 8 cœurs est plus puissant qu’INTEL et ses 4 cœurs par contre il est moins rapide car INTEL a mieux réussi ses cœurs. Mieux qu’AMD pour la vitesse mais pas au point de remplacer le nombre de coeurs. Le nombre de cœurs (la puissance) est beaucoup plus efficace que la vitesse. 4 cœurs, c’est un peu comme une société de 4 personnes. La puissance pour un ordinateur, c’est sa capacité à faire plusieurs travaux en même temps ce qui lui permet de répondre à une nouvelle demande rapidement même s’il est très occupé. Prenons une comparaison : une voiture va plus vite qu’un camion pour transporter un colis, elle est plus rapide. Mais si on a 500 colis à transporter un camion va plus vite qu’une voiture malgré sa lenteur apparente car il est plus puissant et un voyage lui suffit. Il faut noter que les mesures de puissance sont faites en mesurant des vitesses ; ce qui engendre des erreurs d’interprétation faciles. La notion de puissance reste intuitive et pourtant essentielle. On peut dire qu’elle suit surtout le nombre de cœurs et le nombre de threads.

L’avenir proche nous propose déjà chez INTEL et AMD une forte augmentation du nombre de cœurs pour le grand public, donnant raison à AMD pour son choix déjà ancien. Il faut ajouter que par ignorance, de nombreuses personnes, n’ont pas su profiter de la puissance des AMD anciens, focalisant uniquement sur la vitesse. Jusque-là c’était l’envolée des prix chez INTEL alors qu’on aurait pu espérer le retour de prix raisonnables ! On n’est pas vraiment dans des prix grand public quand un processeur dépasse là lui seul les 500€. Doubler les cœurs c’est 200% de performance donc un gros progrès en puissance et la fréquence n’apporte pas beaucoup de gain. 20% de mieux en fréquence donne 20% de rapidité en plus et peu de puissance ajoutée. Chez les nouveaux multi-cœurs, avec l’augmentation du nombre de cœurs, la fréquence est retombée de 4GHz à 3 GHz sur certains processeurs très puissants pour une consommation plus facile à gérer. C’est la première fois qu’on abaisse cette fréquence pour limiter la température de fonctionnement. De plus, la vitesse devient très difficile à gonfler à partir de 4 GHz actuellement (4GHz c’est 4 milliards de coups d’horloge par seconde qui font avancer le travail du processeur et indirectement du chipset). Les ordinateurs sont restés très longtemps à 2 GHz. Aujourd’hui, 4GHz est à la fois un but et une nouvelle barrière qu’AMD a voulu franchir avec son FX à 5 GHz au prix d’une température de processeur difficile à gérer et en s’assurant que tous les cœurs ne puissent pas accéder à cette fréquence en même temps pour éviter la catastrophe. La course à la miniaturisation des transistors, permet de gagner aussi de la vitesse, par exemple avec l’arrivée des puces en 7nm, on pourra dépasser beaucoup plus facilement ce seuil de 4GHz, voire atteindre les 5GHz.

En résumé, plus de cœurs c’est d’abord plus de puissance avec le confort qui suit et un peu de vitesse en plus. Augmenter la fréquence du processeur, c’est d’abord plus de vitesse, et éventuellement un peu de puissance en plus. La vitesse n’est intéressante que pour réaliser de gros travaux en un temps très court. En usage courant c’est la puissance qui apporte le plus d’avantages pour le confort, sauf pour les joueurs évidemment, car ils veulent un maximum de rafraichissements d’écran par seconde, et là, INTEL est au sommet, sa rapidité pour un cœur répond à la demande ; il ne faut cependant pas oublier que notre œil et notre cerveau ne peuvent pas distinguer plus de 50 changements par seconde, doncla course à plus de 70 écrans/sec n’a aucun intérêt car on ne peut pas en voir le résultat pour le confort. On considère qu’à partir de 60 écrans par seconde, on n’a plus de gêne, c’est d’ailleurs le choix américain pour la vidéo. Son seul intérêt, c’est de calculer le progrès obtenu. Rafraichir, c’est renouveler seulement les informations qui ont changé. Les tests ne montrent pas habituellement la puissance mais seulement la vitesse. Chez AMD, les nouveaux processeurs Ryzen ont cherché à corriger leur écart de vitesse par rapport à INTEL, car à fréquence égale, ils ont largement 30% de mieux que les FX. Les Ryzens se placent en alternative correcte pour les joueurs aux finances difficiles.

Sur le I7 jusqu’au 6700, INTEL a voulu gonfler le nombre de travaux à réaliser en même temps car on peut ouvrir 8 opérations à la fois avec ses 4 cœurs. Les multi-cœurs dépassant 4 cœurs, ont gardé cette solution, elle s’appelle l’hyper-threading. Cependant chaque cœur ne peut pas travailler au même instant sur 2 opérations, et la tentative n’est donc pas parfaite même si elle offre un gain important soit 1/3 de mieux environ. La perfection doublerait le résultat (200%). C’est la différence entre le I5 (4 cœurs, 4 threads) et le I7 (4 cœurs, 8 threads). Le I5 n’a pas de multi-threads alors que le I7 pouvant gérer 2 activités (threads) par cœur est multi-threadé. La conséquence est un meilleur confort d’usage et un meilleur comportement avec les années d’usage. Chez AMD les FX ne sont pas multi-threadéset les ryzen à partir des Ryzen5 ont le multi-thread. Imaginez 64 cœurs, 128 threads pour le plus puissant des threadrippers en perspective (en anglais pour ‘escaladeur de threads’). On commence même à parler de 4 threads pour 1 cœur, mais reste à en trouver l’intérêt.

On peut dire que la puissance des 8 cœurs d’AMD n’a que peu d’effets sur un ordinateur juste installé, car les tests se font sur un ordinateur parfaitement propre. Les années d’usage sont très exigeantes, et saturent la plupart des ordinateurs et alors, la puissance devient un paramètre bien plus important. Il semble bien que les fx 6 ou 8 cœurs, restent réactifs beaucoup plus longtemps qu’un I5 pour prendre un équivalent au FX 6 cœurs par exemple. Par contre si on remplace le disque conventionnel par un SSD, il est possible que le I5 retrouve son aisance. Pour le I3 aussi, la présence d’un SSD, semble le dynamiser correctement pour les travaux ne demandant pas trop de puissance, mais en général cela ne dure pas pour le I3. ‘Intel et les SSD’ pourrait être un sujet d’attention intéressant et hors des sentiers battus, à étudier.

On peut malgré tout définir expérimentalement un seuil au-delà duquel, un processeur ne sature plus : il faut atteindre au moins soit 8 threads avec 4 cœurs chez INTEL ou chez AMD avec ses Ryzen5, soit 6 cœurs chez AMD en FX ou sur les nouveaux I5. On a donc pour 2 cœurs un processeur sans puissance pour assurer le bon vieillissement de Windows et pour 4 cœurs et 4 threads, un processeur qui a besoin d’un SSD pour assurer son bon vieillissement. 6 cœurs sans hyper-threading est le minimum pour garantir la longévité du confort d’usage. Le risque de saturation de Windows avec le temps renseigne bien sur la puissance insuffisante d’un certain nombre de processeurs même si ce problème n’est pas mesurable.

Pour un ordinateur il vaut mieux viser une bonne réactivité que la meilleure vitesse pour le confort et la durée des performances. Par conséquent, un maximum de cœurs de qualité et de threads et le SSD sont les clés d’un ordinateur réussi.

Page 22

Le multithreads :

Le multithreads (Hyper-threading), c’est la possibilité d’ouvrir (on pourrait dire commencer et les garder à disposition) plusieurs actions en même temps pour 1 cœur. Pour démarrer chaque travail il faut préparer le cœur, de plus à chaque fois qu’on passe d’une activité à une autre sans multithreads, alors que celle qu’on quitte n’est pas terminée, il faut mémoriser l’état du cœur (Il s’agit de ses cases mémoires de travail appelées ‘registres’) pour pouvoir reprendre la suite de cette opération plus tard. Quand on reprend un travail déjà commencé, il faut retrouver le cœur comme il était au moment où on a quitté ce travail, avec ses registres remis à jour. Il y a donc une quantité d’opérations importante à réaliser à chaque passage d’une activité à une autre qui perd plus de temps qu’elle ne peut en gagner.

Image22

Image23

On a donc créé un multithreads préhistorique par rapport à ce qui se fait en résolvant la gestion des registres à chaque changement de travail. De plus, on peut décider de charger les registres d’un nouveau travail pendant que le cœur continue son activité de son côté sur l’autre activité, parce que l’un des 2 travaux est terminé par exemple. On ne retarde donc pas l’activité du cœur pour commencer un nouveau travail. C’est un modèle facile à faire évoluer, car on peut imaginer que le cœur passe d’un groupe de registre à l’autre à chaque instant et de nombreuses fois pour faire évoluer presque en même temps les 2 travaux. On peut aussi penser que pendant qu’un cœur est en attente, par exemple quand il fait appel à son FPU pour un long travail (FPU : Unité de calcul à virgule flottante), on est libre pour travailler sur l’autre activité, c’est encore du temps gagné.

Les processeurs modernes ont une structure très complexe. Il y a dans le processeur et dans chaque cœur une structure qui leur prépare le travail. Cette structure a beaucoup gonflée sur les processeurs modernes. Elle prépare, organise le travail des cœurs avant que ceux-ci ne s’en emparent. C’est aussi elle qui répartie les taches entre les différents cœurs et les différents threads. Avec l’hyper-threading, on profite de cette capacité d’anticipation pour préparer 2 travaux à présenter pour un cœur.On double les registres du cœur (mémoires de travail du cœur) pour avoir 2 groupes de registres dans chaque cœur et suivre chaque activité à la demande en passant de ‘travail_1’ à ‘travail_2’ ou inversement au besoin. L’Hyper threading coûte seulement 5% de surface en plus sur la puce au lieu de 100%, c’est très rentable. Il y a donc bien 2 activités en cours qui se partagent le cœur et on peut passer de l’une à l’autre sans délai et sans complications, c’est ce qu’on cherchait. On a donc 2 ‘threads’ pour 1 cœur (on pourrait traduire thread par filière faute de mieux). Il faut ajouter que l’usage des caches permet à cette structure d’accéder de façon très sophistiquée au programmes en cours, beaucoup plus rapidement et sur le nombre de pas nécessaires sans sortir du processeur. C’est cette structure qui est chargée de gagner du temps en gérant les 2 threads de façon futée. Le multithreads permet de gagner 30% du temps, c’est donc très intéressant de le réussir. Si on compte bien un 6 cœurs avec 12 threads (avec hyper-threading) fait le même travail qu’un 8 cœur avec 8 threads (sans hyper-threading) car 1/3 de 6 nous propose 2 soit 2 cœurs de plus en efficacité.

On ne va pas détailler les structures proposées par Intel depuis ses I7 ou par AMD pour ses Ryzens, c’est bien trop complexe, mais tous les deux ont choisi le multithreads. Intel propose une structure plus compliquée qu’AMD qui tente cette solution pour la première fois avec ses processeurs Ryzen, ça donne à AMD l’avantage de ne pas s’encombrer de choix non nécessaires d’où la rapidité du multi-thread AMD. Pour un ryzen 6 cœurs, on a 8 fois la puissance d’un cœur en multi cœurs contre 6.7 fois pour un I7 8700 d’INTEL ; malgré une puissance d’un cœur nettement supérieure pour INTEL (550 pout INTEL contre 470 pour AMD). En multi cœurs, AMD rejoint INTEL soit 3700. Tous les deux ont la même intention : passer d’un travail à un autre de façon souple et futée avec 2 travaux en cours par cœur en perdant le moins de temps possible et mettre tous les cœurs à contribution pour partager le travail par la même occasion à chaque fois qu’on peut, car c’est encore du temps gagné.

Il faut ajouter qu’AMD sur son Ryzen a choisi de donner à chaque cœur son FPU, abandonnant la solution du FX à 2 cœurs pour 1 FPU qui avait beaucoup pénalisé son FX. Intel avait conservé à chaque cœur son calculateur complet depuis le début des multi-cœurs pour ses processeurs, car il pouvait mettre plus de transistors sur ses puces, et il consommait moins car ses transistors étaient plus petits. AMD a choisi lui aussi sur ses Ryzen de diminuer très fortement la dimension de ses transistors, ce qui lui permet de construire des puces beaucoup plus fournies que le FX avec par-dessus le marché une consommation qui diminue (elle passe de 125 Watts pour le FX 8 cœurs à 105W sur les Ryzen7).

Page 24

Les caches :

A l’origine les caches étaient des mémoires plus rapides que le débit des données installées dans une liaison pour libérer au plus vite la source et répondre à la destination au besoin et plus rapidement que le débit normal. On les appelait aussi ‘mémoires tampon’. Elles disposent de 2 vitesses et 2 gestions indépendantes, celle de l’entrée et celle de la sortie. Leur effet s’arrête quand on dépasse leur capacité (un cache de 16 Ko n’a d’effet que pour des fichiers ne dépassant pas 16 Ko pour simplifier). L’analogie avec un barrage installé sur une rivière donne une idée de son fonctionnement : stocker les crues en entrée, assurer un débit à la demande en sortie. Maintenant c’est en quelque sorte une ‘mémoire intelligente’ dont le fonctionnement est bien plus complexe, mais elle répond malgré tout au même besoin avec davantage d’efficacité, son travail s’est diversifié.

On trouve des caches à chaque fois qu’on a un goulot d’étranglement des informations ou un conflit d’accès, voir une différence de vitesse. Pour donner les principaux, il y a la sortie et l’entrée de chaque cœur, l’accès à la mémoire et la sortie mémoire, l’entrée et la sortie des disques. Windows a ses propres caches installés en mémoire vive et sur le disque dur. Des applications peuvent se faire elles aussi un cache dans la mémoire ou le disque dur : la gestion de vos USB par exemple. Ce sont des caches virtuels, car ils n’ont pas de circuit propre. Les caches précédents avaient leur électronique adaptée sous forme de mémoires spécifiques. Il faut dire aussi que certains caches au lieu de mémoriser des données, peuvent stocker autre chose, les adresses par exemple pour accélérer la recherche. C’est une autre façon de gagner du temps avec un cache qui les rapproche des autres mémoires.

Pour mieux comprendre les caches, prenons un exemple. Des manutentionnaires déchargent un grenier et déposent leurs sacs sur le quai, pendant qu’une autre équipe prend ses sacs sur le quai selon l’ordre qui lui plait, pour les charger dans un bateau. Le quai joue le rôle de ‘tampon’ et permet à chaque équipe de travailler à son rythme sans gêner l’autre et sans perdre de temps à s’attendre. C’est un stock temporaire où s’empilent les sacs comme le fait une mémoire tampon pour les données. C’est l’idée de départ pour expliquer les caches. Si on prend le cas d’un cœur : il dépose ses données dans le cache le plus vite possible pour se libérer et entreprendre autre chose car normalement il est le plus rapide et très occupé. Ces documents seront récupérés soit par la mémoire soit par le chipset dès qu’ils le pourront et à leur rythme selon l’adresse prévue. Il n’y aura pas d’encombrement et tout sera réalisé à la vitesse de la source et à la vitesse de la destination sans conflits.

Image31

Image32

Un X désigne ceux qui montent le plus en fréquence, comme le Ryzen5 2600X alors, la consommation annoncéepasse à 95W par rapport aux 65W du Ryzen5 2600. Choisir la solution sans X peut se révéler très intéressant, car on peut les programmer à une fréquence très proche des versions X. Un G désigne ceux qui ont une gestion vidéo incorporée avec des vitesses un peu inférieures. La vidéo prendra la place du 2eme chiplet sur la puce en ryzen 3000. Donc il n’y en aura pas au-delà de 8 cœurs (maxi d’un chiplet).

La fréquence maximum des séries X en Ryzen 1000 ou Ryzen 2000, c’est 4GHz accessible plutôt facilement, mais très difficile à dépasser. Pour les autres, c’est un peu la chance, avec le risque d’un échauffement exagéré si vous y arrivez. L’arrivée des Ryzen 2000 en 12nm fait monter cette fréquence maximum de 4GHz à 4.2GHz en boost. Les Ryzen en 7nm, les Ryzen 3000, devraient encore rehausser la fréquence de boost jusqu’à 4.6GHz. La gestion mémoire n’a pas vraiment bougé en dehors du temps d’accès, et les laisse parfois intolérants à certaines fournitures mémoire. Les Ryzens 3000 laissent de l’espoir pour dépasser largement la DDR4 3200MHz ; avec un bémol car au-delà de 3600MHz, la gestion mémoire est divisée par 2, ce qui limite fortement son intérêt tout en rassurant sur la capacité à gérer la mémoire jusqu’à 3600MHz.

La puissance d’un cœur est inférieure à celle d’INTEL, ce qui explique les meilleurs chiffres d’INTEL pour les jeux, mais, le multi-cœur est mieux réussi et à nombre de cœurs égal, c’est souvent AMD qui offre le plus de puissance en multi-cœurs ; pour AMD, en Ryzen5 2600X, 8 fois la puissance d’un cœur en 6 cœurs contre 6.7 fois sur le I7 8700 d’INTEL ;malgré un cœur nettement plus performant pour INTEL, ils se retrouvent à égalité à 3700 en multi-cœurs (testés avecCPUZ). Les Ryzens 3000 devraient corriger ce décalage de vitesse pour un cœur. Il restera à voir les performances avec les Ryzens 4000 toujours en AM4.

Pour les jeux, INTEL est en général en tête, mais l’écart ne présente plus de handicap et pour les autres travaux, ceux qui demandent de la puissance, c’est AMD qui est en tête la plupart du temps. Je n’aime pas la présentation des ordinateurs d’AMD comme ‘ordinateurs de bureau’, ce qui déprécie leurs qualités, il est préférable de dire que les ordinateurs d’INTEL sont plus rapide alors que ceux d’AMD sont plus puissants. Il faut savoir aussi qu’avec les progrès du multi-cœur, les fournisseurs de jeux sauront à l’avenir profiter davantage des nombreux cœurs mis à leur disposition et modifier les exigences d’aujourd’hui. Les Ryzens 3000 s’approchent de la vitesse d’INTEL pour 1 cœur et dépassent la puissance d’INTEL pour leur multi-cœur.

Pour les particularités des cartes mères, on voit arriver les supports pour des SSD PCIE M2X4 qui ont 4 lignes de liaison au lieu d’une et multiplient par 4 la vitesse des SSD déjà très élevée. On passe de 500Mo/s à plus de 2000Mo/s, voire 4000Mo/s et le nombre d’accès disques passe de 70 000/s à plus de 200 000. La conséquence sur le démarrage de Windows, c’est 3 secondes au lieu de 10 pour Win10. Ce n’est évidemment pas un but mais montre bien le progrès obtenu. Il y a des extensions en PCIE3 soit 1Go/s/canal au lieu des 500Mo/s du PCIE2. La famille 3000 propose le PCIE4 pour 2Go/s/canal. On voit arriver de l’USB3.1 pour 10Gb/sec, au lieu de l’USB3 à 5Gb/s et bientôt on aura de l’USB3.2 ; sans oublier pour le folklore, des effets de LEDs sur la carte mère et sur le ventilateur de processeur.

Image33

Image34

Image35

Image36

Image37

Image38

Page 29

Les mises à jour de Windows peuvent être encombrantes et sournoises.

Microsoft ne respecte plus le propriétaire d’un ordinateur et installe presque au forcing ses mises à jour en mobilisant beaucoup de la puissance des ordinateurs (même si l’utilisateur reste prioritaire) au dépend de ceux qui ont une informatique un peu faible, de plus les mises à jour sont fréquentes. Le prétexte c’est l’amélioration de Windows aujourd’hui justifiée sur win10 car il est récent; à long terme il s’agit surtout de le protéger des tricheurs. Sur un dual core les mises à jour peuvent occuper à 100% les 2 cœurs et votre ordinateur ne vous répond plus ou met beaucoup de temps à réagir sans que vous puissiez comprendre ce qui se passe si vous n’avez pas de surveillance. Sur un 6 cœurs AMD, les mêmes conditions occupent un cœur et demi, il lui reste donc 4 cœurs et demi disponibles soit assez de capacité de travail pour ne pas trainer la patte.

Windows XP pose un problème

Car il ne gère pas les SSD dans les règles. Il ne comprend pas la commande ‘TRIM’ dont le rôle est de gérer les écritures pour ne pas écrire toujours au même endroit, donc votre SSD se dégradera plus vite. Heureusement les pertes de rendement sont négligeables en SATA150. Il faut ajouter que WIN XP est souvent incompatible avec certaines cartes modernes et que Microsoftl’a abandonné. Il en est de même pour Vista abandonné aussi par Microsoft. Le prochain sur la liste des exclus, c’est Win7 (pour le début de l’année 2020).

L’idéal étant évidemment de passer à Windows 7 ou Win10. Evitez Windows 8 plutôt chagrin et jamais terminé. Si vous y êtes condamné, profitez rapidement de la gratuité des migrations pour passer à Win10, cela risque de ne pas durer et est accepté pour Win7 et Win8. Win7 x64 n’est pas toujours installable avec la première génération de dual core. Dans ce cas prévoir un Win7 x32. De plus il n’est installable en x32 qu’à partir de la dernière génération de simple cœur si vous y tenez vraiment, avec des risques de bugs, car le bios n’a pas été vraiment ajusté. Il faut cependant savoir que Win7 est associé lors de son activation au numéro de série de votre carte mère et qu’en cas de changement de carte mère dans un futur proche vous perdrez donc une licence qui aura peu servi (le CD WIN7 vous propose votre licence sur 2 cartes mères successives). Microsoft a fait des efforts pour accepter de nouvelles cartes mères sans mettre en cause votre licence. Il faut donc tenter car souvent c’est accepté. On peut malgré tout si le PC fonctionne encore avant le changement récupérer sa licence ; la procédure est un peu complexe, voire internet pour la recette. Il faut ajouter que tous les autres changements en dehors de la carte mère n’ont aucun effet sur votre licence Windows (processeur, disque dur, rams, etc.). Vous pouvez de plus répéter votre installation sur la même carte mère comme il vous est nécessaire. Le problème est proche pour Windows 8 à quelques détails près. Ne perdez pas de vue que Win7 est abandonné par Microsoft.

Pour accéder à win10 il faut disposer d’un processeur récent. C’est une des raisons qui rendent Win7 encore très utile pour un parc d’ordinateurs encore fonctionnels mais plutôt anciens. Vous pouvez toujours tenter, la plupart du temps ça marche encore mais faites d’abord une sauvegarde de votre system car vous pourrez revenir en arrière plus rapidement et oser des solutions incertaines sans risques. Chez AMD les nouveaux processeurs avec de la DDR4 (série Ryzen) ne fonctionnent qu’avec Win 10 officiellement. Les pilotes des cartes Ryzen sont souvent trop incomplets pour installer Win7 correctement, il manque un accès suffisamment fonctionnel aux USB lors de l’installation sans lequel vous risquez de n’avoir ni souris ni de clavier, d’où une incapacité totale d’action. Autre remarque : pour le passage de Win7 ou Win8.1 vers Win10, refusez les mises à jour ou coupez votre WIFI le temps de l’opération, car les mises à jour font très souvent planter la migration.

PS : pour les ordinateurs qui ne peuvent accéder à Win10, Win7 a encore de beaux jours devant lui vu la qualité qu’on lui connait, sachant que même si Microsoft l’a abandonné, il n’y aura que les mises à jour qui feront défaut. L’absence de mises à jour n’est pas forcément un inconvénient, car celles-ci alourdissent Windows et sont facilement la source de nouveaux bugs dont on se passerait volontiers. Si vous avez une bonne sauvegarde faite au moment où votre ordinateur se comportait bien, vous avez une bonne sécurité pour quelques années de fonctionnement sans accrocs car vous pourrez retrouver votre Windows dans un état très fonctionnel avec un niveau de mises à jour correct offert par votre sauvegarde en cas de dégradation de votre system (le niveau de mises à jour présent le jour de la sauvegarde). A long terme, les mises à jour deMicrosoft explorer et des produits hors Microsoft finiront par ne plus prendre en compte Win7 comme pour Vista aujourd’hui, mais c’est un autre chapitre encore assez lointain. Le plus menacé, c’est l’explorateur internet qui n’évoluera pas. Dans ce cas, utiliser un ‘firefox’, voir ‘opéra’ dont la mise à jour est plus souple.

Un conseil pour surveiller le comportement de votre ordinateur :

Il existe pour WIN7 un gadget (petit programme présenté comme une icône) qui vous renseigne sur la puissance demandée et qui vous présente tous vos cœurs en bar-graphe. Il s’agit de ‘all cpu meter’. Ne pas dépasser la version 4.7, la dernière version est pourri pour win7. Il vous permet de savoir si votre processeur est saturé et comment il se comporte. Au repos votre ordinateur ne doit pas dépasser en moyenne 5% d’usage (en général 1à 2 % sauf si vous avez trop de résidents actifs en mémoire). 20% voire 100% si vous ne demandez rien suppose soit un virus soit une mise à jour en préparation. Il y a aussi des démarches de maintenance masquées de Windows de temps en temps. Normalement il est conseillé de chercher à savoir. Attendez malgré tout un certain temps au cas où une opération temporaire ne serait pas terminée. Les cartes mères ont souvent un outil de contrôle qui vous permet de surveiller le processeur mais il est très souvent lourd et encombrant. Avec WIN10 les gadgets ne sont plus acceptés, mais téléchargez ‘desktopgadgets revived-2.0 .exe’ et vous pourrez les retrouver sans problèmes. Cet accès disparaitra à chaque grande mise à jour de Win10, et vous serez alors obligé de le désinstaller puis de le réinstaller, ce que je fais car c’est un outil vraiment très utile comme thermomètre de l’activité du processeur. L’usage immodéré de la mise en veille peut empêcher Windows de finir ses mises à jour, vous avez alors un ordinateur toujours occupé de 20% à70% de ses capacités, qui rame en permanence si votre ordinateur est un peu faible. La solution est de supprimer cette mise en veille pour ne garder que l’arrêt.

Image39

Image40

Page 31

La sauvegarde des documents:

Il y a une autre sorte de sauvegarde à réaliser régulièrement au moins 1 fois par mois, c’est celle des documents et photos. Il faut absolument si vous tenez à vos documents avoir 2 sources différentes à jour. L’idéal, c’est de disposer d’une première source complète sur son disque dur (‘documents’ et ‘images’ voir ‘vidéo’), et d’une 2eme externe soit sur une clé USB soit sur un disque externe USB, la 3eme solution étant un DVDR. Choisir alors l’option ‘multi cession’ à la création pour pouvoir ajouter plusieurs fois des documents sans être obligé d’utiliser un autre disque à chaque fois. Il y a la solution UDF avec un formatage avant le premier usage, encore plus souple, mais hélas avec un R/W. Le DVD ou le CD, c’est malgré tout plus fragile et moins souple qu’un disque dur.

Faire ces sauvegardes en gardant la même présentation que votre disque dur habituel pour être sûr de ne rien oublier. C’est le plus important pour que votre sauvegarde fonctionne bien. Il y a donc 2 sources identiques et complètes à gérer.

La raison de cette double source, c’est que la panne ne prévient pas, de plus il peut y avoir des erreurs de manipulation. Dans ces situations on est bien content de pouvoir retrouver presque tous ses documents. Il faut ajouter que le disque dur est plus fragile qu’on ne peut le penser et que le disque dur externe ou la clé USB sonteux aussi menacés. Les petits disques durs, sont des mécaniques particulièrement fragiles. Il nefaut faire confiance à aucune source. Les accidents de stockage sont habituellement des évènements imprévisibles. Utiliser régulièrement ‘cristaldiskinfos’ pour anticiper un problème.

Image41

Page 32

Explorateur de fichiers :

L’explorateur, c’est l’ouvre boite du PC (à trouver au coin gauche en bas de l’écran soit par ‘ordinateur’ soit par ‘poste de travail’ voir ‘explorateur de fichiers’ voire encore le classeur jaune de la barre de taches). Dès que vous cherchez, c’est là qu’il faut aller. Aussi bien pour vos images et documents que pour vos téléchargements. Les disques y sont accessibles avec un nom et une lettre. C:\ désigne le disque system (disque où se trouve Windows). Il y a aussi les clés USB, vos lecteurs de CD et DVD avec d’autres lettres et leurs noms. Tout ce que vous branchez contenant des documents sera accessible comme un disque avec une lettre et un nom. Vous pouvez modifier ce nom par ‘renommer’ pour mieux le reconnaitre. Votre appareil photo y aura son disque dans lequel vos photos se trouvent disponibles sous le répertoire nommé ‘DCIM’, insistez pour le trouver car son chemin est parfois très tordu. L’accès à vos tablettes par le port USB vous les présente elles aussi comme un disque. Votre téléphone portable lui aussi vous offre le même accès.

Le chemin c’est un disque puis un dossier, puis des sous-dossiers pour arriver finalement au fichier recherché (pensez aux poupées gigognes car c’est la même méthode); on sépare chaque étape par un ‘\’. Par exemple : C:\Windows\explorer.exe. On a donc un fichier : explorer.exe qui est dans le répertoire : Windows qui se trouve dans le disque C :. Un peu comme : j’ai un mouchoir qui se trouve \dans ma chambre\ dans la commode\ au 2eme tiroir\ dans une boite bleue\. On charge ses documents dans ‘documents’ et ‘images’ ou tout autre chemin qu’il vous plait, par le ‘copier et ‘coller’ habituel. Si l’opération vous fait un peu peur, ouvrez un premier explorateur dans une moitié d’écran sur votre clé ou appareil photo,là ou vous voulez ‘copier’ et un 2eme explorateur dans la 2eme partie de votre écran sur vos documents, là où vous voulez ‘coller’. Vous verrez le résultat avec moins de risques. Prenez l’habitude de toujours mettre la source du même côté pour éviter les erreurs (par exemple : à gauche la source, à droite la destination). Windows VISTA ou Windows 8, vous cachent un peu l’accès à cet explorateur. La méthode par copier-coller est très sûre et évite de perdre des documents, préférez la au déplacer-déposer, car vous risquez de déposer hors de votre choix.

Image42

Page 33

A la vue de tout cela , vous pouvez vous demander si c’est utile de vous encombrer l’esprit, mais si vous rencontrez à chaque fichier ces lettres, vous y serez habitués et vous choisirez automatiquement les bons fichiers car vous finirez par savoir à quoi ils servent même avant de les ouvrir et sans vous poser la question. Ils auront un air de famille avec ces 3 lettres. Quand vous voyez ‘.jpg’, vous pensez immédiatement photos. De nombreux documents arrivent par internet et sont illisibles car ceux qui vous les ont envoyés se sont trompés sur leur format, en les sélectionnant, car ils n’avaient pas l’accès à ces 3 lettres ou ils n’y ont pas prêté attention.

Ces lettres vous éviteront ces erreurs, et aideront à mieux repérer les documents, à deviner ce qu’ils sont avant de les lancer. Par exemple les fichiers enregistrés en ‘.odt’ au lieu de ‘.doc’ avec ‘open office’ ne sont pas lisibles par tout le monde, il en est de même pour les ‘docx’. Corriger ces problèmes en ‘enregistrant sous’, ce qui permet de demander une autre extension : ‘.doc’ en Word 97-2003, c’est le plus tranquille. Votre recherche sur l’explorateur deviendra plus performante.

Si vous n’êtes pas content du choix que Windows vous offre pour ouvrir un fichier, il vous suffit de changer le programme appelé par ces 3 lettres. Pour cela, aller dans ‘panneau de configuration’ (accessible au coin gauche de l’écran et pour win10, clic droit pour le trouver). Demander ‘petites icones’ pour avoir le détail des propositions. Choisir ‘programmes par défaut’ aller d’abord à ‘configurer les programmes par défaut’, vous pourrez définir votre présentation préférée. choisir en général : ‘lecteur Windows media’, ‘visionneuse de photos Windows’, et choisir pour chacun : ‘définir ce programme comme programme par défaut’ pour être servi sans surprises. Certains préfèrent VLC au lieu du multimédia de Windows, pourquoi pas. Pour détail, aller à ‘associer un type de fichier à un protocole ou un programme’. vous serez très surpris par le grand nombre d’extensions proposées.

Win10 a semé une belle pagaille pour l’accès à ‘programme par défaut’ car il ne respecte pas toujours ces choix en vous imposant un 2eme accès beaucoup moins clair pour en tenir compte dans ‘paramètres’ puis ‘system, affichage, notifications, applications, alimentation’. ‘Applications’ : à rechercher quand Windows est sourd à votre choix en Win10, particulièrement si vous voulez utiliser Firefox au lieu de la proposition de Windows pour l’internet ou pour choisir le ‘média-Player de Windows’.

Les ‘boites à outils’ de l’ordinateur :

Il existe quelques programmes qui sont proposés régulièrement en mise à jour, parmi eux, les divers produits d’Adobe comme ‘Acrobat Reader’. Acceptez la mise à jour de tous les produits adobe, à ce jour. Mais le but de cet article, c’est de parler de logiciels qui vous apportent une série d’outils pour les programmeurs. Ceux-ci ont construit leur programmes avec une famille d’ordres contenus dans le ‘Visual Basic’, ‘Visual C++’, ‘Java’, ‘Flash Player’, ‘Framework’. Ces logiciels sont donc des clés pour que ces programmes fonctionnent. Il y a pour chacun d’eux des versions différentes avec un numéro d’ordre ou une date pour les reconnaitre. Il faut avoir les diverses versions pour le visual Basic, pour ‘Visual C++’ et pour Framework car chacune de ces versions peut avoir son usage pour tel ou tel programme. Pour les autres, il s’agit de versions compatibles dont seule la plus récente offre tous les services du jour comme ‘Java’, ‘Flash Player’. Faisons un tour rapide des fonctions qu’ils assurent.

Le ‘Visual Basic’ et ‘Visual C ++’ travaillent avec des fenêtres au format utilisé par Windows. Alors que le Basic d’origine ignorait en grande partie les fonctions de Windows et peut lui aussi être demandé. Les Visual ont un langage vraiment très proche de Windows, par conséquent, ils ont été choisis pour leur simplicité et pour avoir des fonctions de programmation très puissantes simplement. Pour chaque fonction complexe on décrit une fenêtre dans laquelle on installe, d’autres fenêtres pour menu déroulant, pour documents textes, pour vidéo, pour dialogue, etc… On profite de Windows qui se charge de détailler ce qu’on propose, car il a déjà tout prévu pour ces démarches et on lui ‘file le bébé’ à traiter. On profite aussi de nombreuses fonctions que Windows utilise et que, par conséquent, on n’aura pas besoin de fabriquer. Cela facilite aussi la présentation des logiciels. De plus, en parlant comme Windows, on respecte son fonctionnement, ce qui évite de nombreux ‘bugs’ (disfonctionnements)

Pour ‘Java’ pendant longtemps, les diverses versions arrivaient à répondre aux besoins, mais récemment, on a reçu de nouvelles versions qui apportent vraiment du nouveau et leur absence peut vous faire perdre des accès à de nombreux sites, notamment pour la généalogie et autres accès des mairies et départements. Il faut donc installer la dernière version et accepter toute nouvelle version. ‘Java’ propose une panoplie d’outils pour programmer qui est originale, performante et nécessaire pour faire tourner les applications qui l’ont utilisée.

‘Flash Player’est une boite à outils proposée par ADOBE‘ qui répond facilement aux besoins de gestion des écrans principalement vidéo. Si vous ne voyez plus à l’écran la barre de contrôle (barre de boutons de vos films ou écrans de documentstéléchargés), voire si elle ne fonctionne pas, pensez tout de suite à télécharger la dernière version de ‘Flash Player’ produite par ‘ADOBE ‘. Il a d’autres usages moins faciles à repérer.

Pour ‘Framework’, c’est une bibliothèque d’outils et fonctions proposée par ‘Microsoft’ fournie en plusieurs versions à télécharger chez Microsoft si un logiciel les réclame. Comme les ‘Visual’, chaque programmeur qui l’utilise peut avoir choisi l’une ou l’autre des versions.

Image43

Image44

Image45

Image46

Image47

Image48

Page 37

La carte mère :

C’est un grand circuit imprimé au fond du boitier de votre ordinateur qui accueille le processeur sur son support avec un gros radiateur ainsi que son chipset (set de circuits qui est chargé de gérer toutes les fonctions et périphériques nécessaires aux utilisateurs) sans oublier les barrettes mémoire et les slots d’extension (connecteurs d’accueil des cartes). En général, la carte mère dispose de 2 radiateurs à ailettes en plus du processeur et de son ventilateur pour les 2 circuits principaux du chipset (nord et sud). L’avenir immédiat les réduit à un seul circuit. La carte mère a son programme, le ‘BIOS’ dans une ‘EPROM’; dont le premier rôle à l’allumage est d’abord de faire le ‘tour du propriétaire’ pour identifier ce qu’on lui présente : processeur, mémoires, souris, clavier, écran, disques durs et lecteurs divers, il faut ajouter haut-parleurs, micro, etc … C’est le BIOS qui présente à Windows son environnement. Il gère aussi les erreurs des périphériques au premier degré, même si Windows est plus performant pour les maitriser avec ses pilotes. La carte mère avec son chipset contrôle aussi toutes les prises proposées à l’arrière, ainsi que les cartes ajoutées sur les borniers d’extension (slots) par son chipset. On accède aux paramètres du BIOS par une touche à l’allumage du PC (soit ‘suppr’ soi ‘F2’, ou autre touche proposée habituellement sur l’écran de démarrage). Ces paramètres sont conservés par une pile d’une durée de vie supérieure à 5 ans installée sur la carte mère. En cas de problème avec cette pile, il n’y a rien de grave. Vous êtes seulement invité à chaque démarrage à visiter les paramètres du bios et à choisir : ‘paramètres par défaut’ (en général : ‘resume’ en anglais) et il vous faut remettre à l’heure. Vous avez aussi au démarrage la possibilité de choisir le disque de démarrage qu’il vous plait par une autre touche (F11 ou F8 par exemple); c’est une proposition de la page de démarrage accessible juste le temps de l’afficher (répéter de nombreuses fois la touche au démarrage pour y accéder de façon efficace).

Image49

Image50

Image51

Image52

Image53

Image54

Image55

Page 41

Achat :

Si vous achetez un ordinateur à 500€, vous avez toutes les chances de n’avoir qu’un dual cores (un 2 cœurs) ou un 4 cœurs pourri. Ce n’est évidemment pas l’idéal. Ne pas descendre en dessous de ces 500€ et Préférer dans ce cas les I3 d’Intel (2 cœurs) à ce prix. Assurez-vous de la présence d’une trappe sous l’ordinateur pour les portables, cela permet de compenser certains problèmes plus facilement. A 650€ vous devriez pouvoir trouver un 4 cœurs correct, voire un 6 cœurs. A 900€, vous avez un ‘maximum’ raisonnable mais cher. ‘Plus’ vise à satisfaire les fanatiques des jeux car les cartes écran sont très chères et dépassent facilement les 300€ à elles seules.

Les nouveaux PC extraplats à moins de 500€, laissent vraiment à désirer et sont très loin d’être sérieux ; rams soudées, donc impossibilité de modifier la quantité de ram surtout que la mémoire est souvent très restreinte, processeurs asthmatiques, absence de disque dur, produits sans possibilité de corriger les défauts rencontrés. On trouve de tout y compris le plus surprenant. J’ai vu des portables avec un Win10 restreint à son strict minimum, ce qui conduit au bout de 6 mois à un disque (si on peut l’appeler ainsi pour 32Go) plein où il faut tous les jours faire de la place, car les mises à jour de Windows n’ont pas respecté le choix d’un Windows petite formule. Pour un win10 correct, il faut prévoir 60Go utilisés sans compter les documents. Une des solutions, pour ces petites structures, c’est de rester à la proposition du fournisseur en interdisant les mises à jour si vous pouvez le faire pour éviter le gonflement de Windows totalement interdit si vous voulez vous en servir sans être inquiété. Ces ordinateurs ne valent pas plus en qualité que de nombreuses tablettes bas de gamme.

Pour les tablettes, si vous préférez Android à Windows, méfiez-vous de leur puissance, car même si on vous dit qu’Android est beaucoup plus léger que Windows, j’ai rencontré de nombreuses tablettes qui vous font attendre un long moment à chaque clic et qui vous ignorent, soit en gros des machines à rien faire. La puissance vous permet de mieux piloter votre tablette qui comprend beaucoup plus facilement la présence de vos doigts sur l’écran. Avec les produits trop faibles, on n’avance à rien, et comme tout ordinateur, cela ne s’arrange pas avec le temps, vous obligeant régulièrement à réinitialiser votre machine pour reprendre tout à zéro. Les propositions financièrement avantageuses en dessous de 200€ sont donc très risquées et même à partir de cette valeur, il y a des propositions qu’il faut choisir avec précaution. Malgré tout, des marques comme Samsung, Acer, Lenovo, Asus, Huawei sont plus sûres. On trouve aujourd’hui des processeurs 8 cœurs, c’est une assurance pour une puissance correcte. Certaines marques ne remettent jamais à jour leur produit, vous obligeantà vivre avec des bugs rencontrés à l’achat et jamais corrigés. Rechercher en particulier la solution pour charger les applications sur votre carte mémoire additive au lieu de la mémoire par défaut, car celle-ci est souvent trop petite (en général 16Go), donc vite pleine ; 64Go, c’est l’idéal. C’est une proposition rarement proposée et pourtant bien utile. Le gestionnaire de fichiers est lui aussi souvent défaillant pour copier à partir des entrées USB ou vers celles-ci simplement.

Quelles fonctions peut-on trouver sur une tablette ? Le WIFI est toujours présent ainsi que le Bluetooth pour un clavier, une souris, pour le son, en liaison radio donc sans fil. On peut aussi avoir le GPSutilisable avec des cartes proches de celles de Google, voire ‘maps-me’ comme utilitaire intéressant car il fonctionne sur des cartes mémorisées en présence de votre WIFI et disponibles ensuite hors services internet. Si vous voulez internet hors de votre réseau WIFI, certaines tablettes peuvent supporter une carte SIM pour de la 3G, 4G. C’est autant de services à vérifier à l’achat. Noter que si vous n’avez que la 3G, votre accès internet sera défaillant (pas assez de vitesse de liaison). A noter que chez vous, votre tablette n’utilisera pas la 4G mais votre wifi pour économiser votre forfait ; il vaut mieux s’en assurer.

N’oubliez pas lors de votre achat de laisser à charger votre tablette une nuit entière. Certains vous proposent ensuite de l’utiliser jusqu’à décharge complète (donc jusqu’à 20%) la première fois, ce qui fait une charge complète suivie d’une décharge complète. Après cela, faites comme il vous plaittout en évitant de les décharger totalement, donc s’arrêter à 20%. Surtout, il ne faut jamais laisser votre tablette déchargée sans la mettre en charge aussi tôt que vous le pouvez. C’est vrai pour toutes les fournitures de batterie depuis celle de votre voiture jusqu’à votre électronique. De même, pour les batteries que vous mettez de côté sans usage immédiat, chargez les complètements avant de les ranger pour ne pas les retrouver définitivement détérioréeslorsque vous les reprendrez.

Choisissez toujours les propositions ayant 4 cœurs pour être bien servi chez Intel, soit un I5 (4 cœurs, 4 threads) avec un SSD ou un I7 (4 cœurs 8 threads) pour la voie royale mais chère. Les I3 sont plutôt chagrins avec le temps, car ils n’ont que 2 cœurs. Malgré tout, si vous tenez vraiment à Intel et à vos 500€, vous êtes encouragé à choisir un I3 pour éviter les processeurs poussifs. Il vieillira mal, mais se comportera beaucoup mieux que les autres 2 cœurs, ce qui est vraiment nécessaire avec cette petite puissance. Les processeurs INTEL sont très légèrement supérieurs aux Ryzen pour les jeux, mais pas au point de vous faire choisir INTEL plutôt qu’AMD si le nombre de cœurs est suffisant.

Pour AMD, préférez 6 cœurs en FX, Ce n’est pas nécessairement plus cher et bien plus performant, de plus cela compense la faiblesse d’AMD par rapport à INTEL pour cette génération. Le FX, c’est la solution la moins chère, avec un service tout de même sérieux. Pour les AMD récents, choisir les Ryzen 5 (4 ou 6 cœurs). Si vous voulez un Ryzen3, vous êtes fortement encouragé, comme pour le I5 d’Intel à ajouter un SSD pour garder votre PC réactif longtemps, ce qui ne vous empêche pas de le faire avec de très bons processeurs, car vous ne le regretterez pas. Les processeurs Ryzen sont légèrement moins performants en jeux, mais dès qu’on fait appel au multi-cœurs, ils sont plutôt meilleurs qu’INTEL et en tout cas moins chers, surtout pour les plus performants. Mais à 5% près, la capacité de jouer n’est pas menacée avec les nouveaux Ryzens.

Les prix proposés plus hauts ne sont qu’indicatif, parfois il y a des propositions plus intéressantes en prix et en qualité. Prenez votre temps et surveillez surtout le nombre de cœurs pour ne pas avoir de surprises ; ne vous rabattez pas sur un 2 coeurs. Les Ryzen changent la donne pour AMD, mais ils sont parfois 1/3 plus chers que les FX. Les FX sont maintenant difficiles d’accès pour une carte mère correcte car celles-ci ont presque toutes disparu du commerce et vous encouragent à choisir Ryzen à votre avantage pour la performance.

Les rams en DDR4 des nouveaux processeurs sont très chères et peuvent poser problème avec les Ryzens. Voire les propositions de rams compatibles si vous voulez des rams rapides (à 3200MHz). C’est un peu moins risqué avec les Ryzens 2000 ? Pour les processeurs INTEL, il n’y a pas de contre-indications aussi contraignantes même si là aussi, les DDR4 peuvent être chagrines. Pour tout ordinateur quel que soit votre choix,préférez 2 rams à une seule : 2 X 4Go au lieu d’une seule de 8Go, car avec le double accès à la mémoire, ça va 2 fois plus vite en vitesse de ram et cela revient au même prix. Il est un peu dommage que les rams 4Go soit aussi difficiles à trouver, car 2 X 8Go c’est vraiment trop cher (240€ en moyenne pour 3200MHz, voire ‘Flarex’ à choisir pour sécurité en AMD à partir de 2X8Go). Il semble que les prix baissent actuellement.

Image56

Pour savoir : télécharger CPU-Z c’est un tout petit programme sans risque qui montre ce qu’il y a dans son ordinateur et permet de tester par son bench votre ordinateur et derépondre aux 2 questions précédentes.

Délais de réception, 3 semaines pour un voyage en directe de chine. Le changement de processeur ne modifie pas Windows pour 1/2heure d’intervention.

Pour le disque dur, les disques durs ont un maximum de 70 accès disque par seconde et sont un vrai boulet. On les remplace par un SSD qui propose 70 000 accès disque par seconde pour un 500Go au prix de 65€ environ en neuf; l’ordinateur démarre en 10s au lieu de 2 à 5 minutes. Cela dope l’ordinateur.

Le changement de processeur rend nettement plus rapide la réponse (l’ordinateur devient plus réactif)et résiste beaucoup plus longtemps avant de ramer, mais on augmente peu la vitesse, et sans le SSD, ce n’est pas merveilleux ; c’est le disque dur qui ralenti le plus l’ordinateur. Les 2 modifications sont vraiment efficaces et complémentaires pour 105€ en AMD ou 95€ en INTEL. Avec les 2 solutions à la fois, le résultat est bien supérieur à celui d’un ordi neuf de 500€ avec en résumé, un processeur d’occasion et un SSD neuf. Un processeur d’occasion ça ne prend pas de risque, car un processeur c’est vraiment très solide, ça ne grille jamais.

En cas d’impossibilité pour modifier le processeur, installer un SSD est toujours faisable et très efficace même si l’avantage dure moins longtemps qu’avec les 2 solutions.

Le passage au SSD ne change rien à Windows, car on copie tout le disque dur.

Certains fournisseurs d’informatique peuvent jouer le jeu de la mise à jour (cela a un prix mais reste encore intéressant). Soit environ 550€ pour le premier prix avec SSD (c’est beaucoup mieux qu’un 2 cœurs du commerce même si c’est pour le même prix) pour une formule qu’on trouve dans les ordinateurs à 900€

Ou si vous avez une relation compétente, c’est encore mieux et moins cher (de 290 à 390€ en AMD FX 6 cœur, si vous trouvez une carte mère appropriée), sachant qu’il faut en plus installer Windows si on a une nouvelle carte mère.

Pour la maintenance, Si votre ordinateur ne démarre pas, pensez d’abord à réinitialiser votre mémoire du BIOS. En cas de coup d’orage, souvent, seule l’alimentation grille, soit 50€ pour la changer surtout si vos ventilateurs ne tournent pas. C’est le cube en tôle d’où part un gros paquet de fils(là ou votre câble secteur est branché). Sauf boitier de petite taille, c’est totalement standard (alimentation ATX). C’est l’élément le plus fragile d’un ordinateur qui en général ne casse rien d’autre, sauf avec votre malchance, cela vaut le coût de tenter le dépannage pour ce prix si rien ne se passe au démarrage.

Page 43

Des idées pour déverminer une configuration difficile sur du matériel récent:

Pour l’accès au BIOS, selon votre carte mère, il y a une touche à utiliser : soit ‘F2’, soit ‘suppr’ voire une autre touche, à répéter rapidement dès l’allumage jusqu’à l’accès. Elle est normalement marquée sur l’écran de démarrage. Pour sortir (exit), on a 2 solutions : soit sortir sans enregistrer soit sortir en enregistrant. Si on craint d’avoir fait des modifications imprévues, on sort sans enregistrer. Si on a volontairement modifié, on sort en enregistrant. Si le bios vous force à entrer par F1, il faut sortir en enregistrant même si on n’a rien changé, pour assurer les choix du bios.

Le bios : Le bios est le programme de la carte mère qui gère tout son environnement. Dès que vous le pouvez, mettez à jour le BIOS. Certains vous conseillent de le faire avec une clé USB. Malgré tout, la mise à jour par Windows n’est plus dangereuse pour beaucoup de fournisseurs de carte mère, car, la mise à jour commence après un redémarrage et se fait hors Windows chez ASUS, comme avec une clé. Il vous faut télécharger sur le site constructeur la dernièreversion du BIOS. Il vous faudra désigner le chemin de ce fichier au logiciel de mise à jour. De nombreux bugs sont corrigés par un BIOS récent. C’est une opération malgré tout dangereuse pour votre carte mère qui ne doit pas être interrompue et qui dure quelques minutes. Avec les Ryzens 2000, le niveau du BIOS peut même interdire le fonctionnement de l’ordinateur et dans ce cas exige un processeur de dépannage qui l’accepte et permet alors de mettre à jour ce BIOS avant l’installation du nouveau processeur ; de même avec les Ryzen 3000. C’est une opération complexe proposée par votre fournisseur. C’est bien de soigner le BIOS mais n’oubliez pas les pilotes du chipset à prendre chez le fournisseur de votre carte mère, pas chez Windows, car il y a des bugs.

La mémoire : au 1er démarrage avec de la DDR4, assurez la fréquence de votre mémoire dans le bios, celle-ci est fréquemment sous-évaluée, au cas où elle passerait correctement. On a une fréquence idéale de 3200MHz si vous avez la chance de la réussir ou une fréquence à peu près assurée à 2400MHz. Les Ryzens 2000 ont monté cette fréquence par défaut à 2933MHz, mais ce n’est pas toujours efficace. Ajoutez si vous dépassez les 2400MHz les choix suivants dans le BIOS: OC (over-clocking) pour dépasser les choix par défaut du BIOS ; DOCP pour définir les conditions de paramétrage de ram proposés par le BIOS ; la tension de la ram est normalement proposée à 1.2V (Dram voltage) et vouspouvez l’augmenter en cas de refus de la mémoire jusqu’à 1.4V sans problème, 1.45V grand maximum; davantage, c’est une fausse piste, restez alors à 1.4V. Si l’ordinateur fait plusieurs démarrage avant le premier écran de Windows, commencez à augmenter cette tension, puis en plus, baissez la fréquence de ram par valeurs successives jusqu’à l’acceptation de votre mémoire, et ne vous affolez pas de ces redémarrages, vous ne casserez rien, il faut prendre son temps. Parfois sa fréquence semble bonne, pourtant elle peut être encore la cause de plantages occasionnels de Windows. Pour le vérifier, descendre la fréquence de ram d’un ou deux crans et utilisez votre ordinateur. Pour voir s’il y a amélioration. Si rien ne change, c’est une fausse piste, revenir à la valeur qui semble fonctionner. Il vous reste encore d’autres essais en cas de problèmes : les options d’alimentations (bias) peuvent suivre divers options comme ‘CB 11.5’ ou ‘CB 15’ voire ‘aida/greekbench’ ou ‘auto’ou encore ‘none’ ; tentez chacune de ces options au cas où votre ordinateur deviendrait sage. Vous avez aussi le vcore (VDDCR) qui est sur ‘auto’ et que vous pouvez passer sur ’offset’ pour le doper sans risque car c’est une proposition de base du BIOS. Une autre réflexion : méfiez-vous des pilotes Win10 pour le chipset notamment, préférez les pilotes du fournisseur de votre carte mère dans leur dernière version. Si vous avez 2 rams, n’oubliez pas de disposer celles-ci sur les bons slots (borniers) ; pour le cas où vous auriez 4 supports de rams, laissez un slot entre les 2 mémoires, puis utilisez ‘cpuz’ qui vous dira si sous êtes en ‘dual’ (double accès pour la mémoire) ; en ‘single’ (simple accès), vous avez une mauvaise disposition, sauf évidemment si vous n’avez qu’une seule barrette où c’est parfaitement normal. En dual, vous avez un double accès à la mémoire qui multiplie par 2 votre vitesse mémoire, ce n’est pas négligeable. Pour cela, choisissez 2 rams de 4Go plutôt qu’une seule de 8Go. Assurez-vous sur le net du bon choix mémoire, car elles ne sont pas toutes aussi performantes et bien acceptées.

CPUZ’ est le logiciel à télécharger et à installer ; Il vous dira à quelle fréquencetourne votre processeur et la fréquence de votre mémoire. Attention, Il affiche la moitié de la fréquence de votre choix dans le BIOS pour la mémoire, donc 1200MHz pour 2400MHz par exemple et plein d’autres renseignements. Ne soyez pas surpris si la fréquence du processeur change fréquemment, celle-ci s’adapte à la demande de travail pour économiser au repos en baissant cette fréquence. CPUZ dispose de benchs (tests) pour comparer à un autre processeur si cela peut vous rassurer (comparer avec le même nombre de cœurs, c’est plus raisonnable).

La fréquence processeur : tentez, si vous le désirez de monter la fréquence du processeur, si vous ne changez pas les conditions d’alimentation, il n’y a pas de risque, c’est assez facile jusqu’à 4GHz pour les séries X; l’ordinateur plantera en cas d’erreur et vous redonnera l’accès au BIOS pour le corriger. Vérifiez par le ‘bench de cpuz’ si vous gagnez de la performance. Là encore, c’est une opération qui exige de la patience. Ne mélangez pas les modifications de la mémoire avec celles du processeur, car c’est déjà suffisamment incertain. La fréquence de votre processeur par défaut vous offre la gestion automatique de la fréquence processeur ; elle varie alors entre les 2/3 de la vitesse et la fréquence de ‘boost’ beaucoup plus élevée. Si vous dépassez la vitesse par défaut, elle devient fixe, ce qui n’est pas nécessairementplus intéressant, car vous n’avez alors plus accès à la fréquence de ‘BOOST’. La fréquence de boost en fixe n’est pas accessible sans changer les conditions d’alimentation du processeur à vos risques et périls. De plus, il y a des écarts entre les processeurs même avec des modèles identiques.

Image57

Image58

Image59

Avec moins de détails, vous pouvez sélectionner l’activité en cours qui vous déplait ou qui ne fonctionne pas ; sélectionnez la et choisissez : ‘fin de tâche’ pour pouvoir reprendre la main. C’est un peu la procédure de ‘secours’, notamment avec un virus ou un bug.

Avec plus de détails, pour Win10, vous pouvez choisir la colonne ‘démarrage’ où vous pouvez désactiver les logiciels qui ne sont pas nécessaires au démarrage en sélectionnant la ligne correspondante. Pour Win7, utiliser ‘msconfig’ à lancer par la commande : ‘exécuter’ pour accéder à ‘ démarrage’. De nombreux logiciels n’ont pas besoin d’être résident à plein temps, car on les appelle seulement au besoin comme CCleaner, QuickTime, Java, voire beaucoup de SCHedulers (recherches de mises à jour automatiques ) . Rassurez-vous, ils répondront présent à la demande de Windows même désactivés. Cela permet de désencombrer la mémoire où de désactiver les ‘nuisibles’. Il n’y a pas beaucoup de logiciels qui doivent être toujours présents mis à part votre antivirus ou des fonctions nécessaires à votre carte mère dans le pire des cas pour les portables. Vous pourrez par la même occasion réactiver un logiciel qui est nécessaire et corriger votre choix précédent. Normalement il n’y a pas de logiciels nécessairement présents au point de casser Windows si vous les désactivez; vous pouvez donc vous tromper et revenir pour corriger. En étant exigeant, votre ordinateur peut revenir à 1 ou 2% d’activité au repos.

Ci-dessous, j’ai réalisé un tableau des caractéristiques des processeurs qui me sont passés entre les mains pour corriger ou confirmer ce qui se dit sur le net. Certains sont un peu datés mais permettent de comprendre les principales familles. Attention, le I3, le I5, et le I7 processeurs d’Intel ont été développés en de nombreuses versions dans l’ordre du nombre associé à leur nom et parmi lesquelles on peut se perdre facilement. Le tableau présenté est plus largeque ce qui se fait souvent pour voir aussi ce dont personne ne parle, car la particularité de notre époque c’est que tout le monde dit la même chose et il y a des secteurs entiers qui sont passés sous silence. Il faut ajouter que notre société ne veut entendre parler que du premier aussi bien en sport qu’en technique. Pourtant quand nous achetons, notre budget a besoin de se restreindre. Donc il faut réfléchir plus large et faire les compromis les plus judicieux possibles. Il faut donc savoir ce qui est le plus payant techniquement et cerner le minimum nécessaire, voir rechercher le meilleur rapport qualité-prix. Méfiez-vous des bruits de fond de la ‘toile’, ils ne sont pas tous fondés. Tout doit être mis en doute.

Image60

Image61

Page 47

Remarques sur le tableau précédant

Les tests sont réalisé avec Aïda 2.50.2 et Pc Wizard 2012.2 pour les plus anciens. Ce qui compte c’est que tous les tests soient faits avec la même version pour pouvoir comparer (les valeurs n’ont que l’intérêt de la comparaison). Pour ‘Pc Wizard’ les versions ultérieures sont saturées dès 4 cœurs voire 2 cœurs pour les Ryzens et les résultats sont donc faussés pour AMD qui va jusqu’à 8 cœurs en produits courants. C’est d’ailleurs le cas pour de nombreux test préoccupés seulement de jeux, et qui ne connaissent que 4 cœurs maximum.

En tête de colonneX1 : 1 coeurx4 : 4 cœurs 4 cœurs : 4 processeurs en 1 donc 4 fois plus de puissance qu’un cœur.

De cpu queen à fpu sinjulia : 9 programmes de test très différents les uns des autres mais complémentaires qui offrent des éclairages intéressants sur les processeurs (cpu) et les FPU.

On peut voir une amélioration importante de la mémoire sans cache par Intel ou par les Ryzen. Intel perd son avantage quand on utilise les caches 1er ou 2eme niveau. Le cache 3eme niveau reste à l’avantage d’INTEL ou des Ryzen.

Pour la mémoire, les Ryzen dépassent INTEL en double accès seulement, le quadruple accès est à l’avantage d’Intel ou des ‘threadriper’ d’AMD.

Pour la puissance de calcul et le multitâches en simple cœur Intel est supérieur mais le nombre de cœurs d’AMD est payant (voir l’usage des threads). Les Ryzens améliorent fortement les propositions d’AMD en multi-cœur et dépassent Intel en puissance à nombre de cœurs égal. Donc le multi-cœur d’AMD est plutôt réussi. Il reste du progrès à faire pour AMD sur la vitesse d’un cœur.

Le I3 reste le meilleur des duals cœurs toutes sources confondues. Mais il est malgré tout insatisfaisant, Il vieillit mal, c’est une certitude, même si on rencontre quelques cas qui se comportent bien, sans pouvoir affirmer pourquoi.Le I5 en test ici est au niveau du6 cœurs d’AMD sauf pour les jeux ??? Je trouve qu’il perd beaucoup au bout d’un an. Par contre, j’ai installé un SSD sur un I5 totalement saturé, et j’ai eu la surprise de retrouver un ordinateur très réactif sans avoir besoin de réinstaller Windows. Peut-être que le I5 avec SSD se comporte très bien. Le I5 6600 talonne le 8 cœurs FX8350 d’AMD pour un prix de 200€ à 280€ contre 105€ pour l’AMD 8 cœurs qui offre plus de puissance. Je n’ai pas testé le I5 6600.

Le I7 2600k en test ici est vraiment l’équivalent du 8 cœurs d’AMD même s’il est inférieur en multitâches. Pour la gestion mémoire, il est supérieur comme expliqué plus haut. On ne peut pas non plus contester sa supériorité pour les jeux. Les derniers I7 4 cœurs voient leur puissance gonflée de près d’un quart pour un cœur par rapport au I7 2600k comme on peut le voir sur le tableau précédant avec le I7 6700.

.

Le PhenomII X6 est supérieur en calcul au FX X6 il faut dire qu’il a 6 FPU contre 3 pour le FX x6 ; les tests FPU sont à son avantage par rapport au FX 6 cœurs, voir aussi son comportement multitâches qui atteint le FX x8. Mais le FX est plus souple que le phenomII pour la montée en fréquence et sa gestion mémoire a fait du progrès. Noter quelques autres modifications malgré tout efficaces.

Les derniers I7 non testés ici dépassent largement le 8 cœurs d’AMD mais le prix du FX est très avantageux et son choix reste défendable en 8 cœurs. Les dernières versions du 8 cœurs d’AMD qui vont jusqu’à 5 GHz sont trop exigeantes sur le refroidissement du processeur et le laissent toujours en retrait par rapport à Intel. Reste à savoir si le prix des PC avec leI7 6700 présente un intérêt suffisant (de 350 à 450€ le processeur). Comptez environ 65€ pour un 6 cœurs FX 6300 et 70€ pour un 8 cœurs FX 8350 d’AMD et cela pour seulement 30% de vitesse en plus pour le I7 d’INTEL sur le 8 cœurs AMD, l’addition est salée. Je ne parle pas des I7 disposant de plus de 4 cœurs, car ils sont très chers, de plus, je n’ai pas eu l’occasion de les tester. On peut cependant penser qu’ils sont très performants. Les prix des dernières versions ont bien chuté sous la pression d’AMD.

Pour les Ryzen, ils remettent AMD sur la scène des performances avec des prix abordables. Les structures avec des Ryzen sont au moins 1/3 plus chers que les FX, mais nettement moins chères que celles d’INTEL, et sont souvent plus puissantes que celles d’INTEL à nombre de cœurs égal.

Image62