Journal burn, cpu, burn !

Posté par  (site web personnel) . Licence CC By‑SA.
Étiquettes : aucune
50
25
nov.
2015

Sommaire

Cher journal, j’ai eu chaud, très très chaud ! (enfin, mon ordinateur).

Quand on prend des risques

Bon, OK, j’avoue, j’utilise quelques logiciels en préversion (pilotes graphiques… et quelques outils, VLC entre autres).

Je glisse un DVD tout à fait légitime dans le mange disque et je lance VLC.

J’ai le son, mais pas l’image, comme c’est un DVD de musique je m’interroge si c’est normal. Et puis hop, avant d’avoir trouvé la réponse à ma question, tout l’affichage à l’écran part en cacahuète, tout d’abord sous la forme d’un espèce de kaléidoscope blanc.

La musique en tâche de fond continue mais commence à bégayer.

Puis l’écran s’éteint, et se rallume, pour former une espèce de neige inversée (pixels noirs et gris sur fond blanc).

La musique s’est complètement arrêtée.

Puis l’écran s’éteint et se rallume, et j’ai encore un autre motif.

Bon, là c’est sûr, ce n’est pas normal.

Quand le bug flatte le geek

Je me dis « ouh, il semble que VLC a posé son pied dans un bug du pilote graphique, voyons voir ce que c’est ».

Le geek, il voit toujours la vie du côté fun, le moindre problème est un problème à résoudre, et ça c’est excitant ! \o/

Pensant sérieusement que c’est un simple crash du pilote, je démarre mon ordinateur portable dans le but de me connecter en ssh à une console pour poser un diagnostic, et peut-être, remonter le bug quel que soit le fautif (le noyau ? le pilote ? VLC ?). Peut-être, je l’espère, je trouverais assez d’information pour qu’il soit corrigé (espoir, espoir).

irrégularités graphiques
J’ai même pris le temps de prendre une photo pour le rapport de bug, voici un des très variés motifs que j’ai vu. Et à vrai dire, celui-ci est le dernier.

C’est le mi-mi-mi, la me-merde

Mais je n’irai pas jusque-là, car tout d’un coup, mon PC s’éteint. CLAC.

Je me dis « mince ». J’appuie sur le bouton d’alimentation, la carte-mère s’agite, les ventilos sursautent, et CLAC, le PC se ré-éteint aussitôt.

Je me dis « mince, mince ». Et là, inquiet, je sens le chaud, ça sent le chaud, vraiment le chaud là, « mince, mince, mince » me dis-je ! J’ouvre la tour, aucun dégât visible, je touche les différents dissipateurs, et j’arrive à celui du CPU… « mince, mince, mince, mince » je me brûle le doigt… et ça fait déjà trente secondes qu’il est éteint. o.O

Je me dis, « ouuuh, j’espère que mon processeur n’a pas grillé », je me dis que normalement le proco a un mécanisme de sécurité qui le force à se couper en cas de surchauffe (on n’est plus à l’époque de l’athlon), alors là me vient une inquiétude… Quand le proco surchauffe, le proco s’arrête et l’ordinateur s’arrête avec lui, mais avec lui s’arrêtent aussi les ventilateurs.

Quand le dissipateur accumule

Et voilà que mon gros dissipateur en métal fait accumulateur de chaleur ! Il n’est plus ventilé, et c’est lui qui conserve la température à la surface du CPU… Et quand j’allume l’ordi, le CPU éteint tout par surchauffe avant que les ventilateurs aient assez ventilés, et le dissipateur met trop de temps à se refroidir !

Je saisi d’une main un ventilo dans un tiroir, et de l’autre main une alimentation de disque dur externe, et un adaptateur, et je le place en extraction sur la face du dissipateur qui n’a pas de ventilateur (l’autre face a un ventilateur en aspiration, à demeure, mais éteint, si vous avez bien suivi)…

La température du dissipateur redescend (mon petit doigt me dit, pour une fois il est assez fiable, là)… Je tente une mise sous tension, je vais direct sur l’interface du micrologiciel de la carte mère pour surveiller la température. Déjà si j’arrive là c’est que mon proco n’est pas mort, je suis rassuré… Je vois la température déjà bien descendue à 55° et je choisis de laisser redescendre encore un peu…

Une fois atteint les 45°, je redémarre, j’amorce un OS complet et voilà que j’écris ce journal. Ouf !

Burn, cpu, burn !

Mais que s’est-il-passé ? La cause du bug, je ne sais pas, mais il ne s’est pas seulement passé qu’un simple bug graphique, une boucle infinie est partie sur le CPU, et qui certainement se suffisait uniquement des caches CPU ce qui a maximisé l’échauffement.

Pour ceux qui sont curieux et qui veulent reproduire ça chez eux, vous pouvez installer le paquet cpuburn (qui contient des binaires optimisés pour votre famille de processeur. L’idée est simple : on lance une boucle infinie avec un calcul qui demande un maximum de ressources au processeur mais qui ne demande aucune entrée/sortie avec un autre composant (mémoire centrale par exemple), ce qui ralentirait l’exécution. Lancez un processus par cœur et surveillez votre température…

Installez cpuburn et installez et configurez lm-sensors.
killall est distribué dans le paquet psmisc sous Debian/Ubuntu, vérifiez que vous l’avez avant de lancer le test si vous voulez l’interrompre !

Lancez un processus par cœur (en imaginant que vous avez un processeur de marque AMD) :

for i in $(grep ^proc /proc/cpuinfo | cut -c1); do burnK7 & done

Surveillez la température et vos ventilateurs avec sensors, pour arrêter le test, faites :

killall burnK7

Bref, involontairement, un scénario similaire s’est produit. Je croyais que seule ma carte graphique avait planté. En fait, si ma carte graphique faisait des gribouillages futiles, mon processeur partait en flamme.

Quand le régulateur ne régule plus

En temps normal, la température de mon processeur oscille entre 30 et 40°C, selon la charge système, et les ventilateurs tournent doucement (aux alentours de 128 tr/min). En fait je pourrais même les arrêter (oui, même celui du processeur, à faible charge le dissipateur suffit), mais je considère qu’un ventilateur arrêté est une alerte : quand le ventilateur est normalement arrêté, il est impossible de savoir s’il saura démarrer quand on aura besoin de lui, ou s’il est cassé. Donc, mes ventilateurs tournent au ralenti, au plus lent qu’ils le peuvent.

Quand le processeur chauffe trop (forte charge), j’ai un régulateur logiciel qui s’occupe d’accélérer mes ventilateurs (le très rustique fancontrol). Ainsi, le ventilateur principal est sensé monter à 1400 tr/min quand la température dépasse 50° (ce qui est encore tiède, mais voyez comme je suis prudent).

À coté de cela, en cas de très très forte charge, j’ai un autre régulateur (de derrière les fagots) qui est prêt à réduire la fréquence d’horloge en cas de surchauffe que les ventilateurs ne peuvent calmer. Ainsi, si le processeur atteint 70° (ce qui commence à faire chaud mais n’est pas encore critique), les 8 cœurs passent instantanément de 4.7GHz à 1.4GHz, ce qui est capable de faire baisser la température à 50° en quelque seconde avec les ventilos sus-cités.

En vrai le régulateur réactive le gouverneur précédemment sélectionné dès que la température repasse en dessous des 70°, ce qui permet à une grosse tâche de n’être bridée que lorsque ça atteint les 70°C, mais seulement une ou de seconde, le temps de repasser en dessous.

Ce genre de situation arrive rarement, par exemple l’été (je suis au bord de la méditerranée, ça chauffe) quand je calcule le rendu de quelques dizaines de giga-octets de photos, ça arrive. Il se trouve que darktable est un assez bon cpu burner, notamment sur les algos de débruitage. Au bout d’une demi-heure de rendu, il arrive que ça commence à chauffer sévère.

J’avais testé le bouzin (avec cpuburn justement) et ça marche très bien. En cas de charge normale, le PC ronronne très silencieusement, avec des ventilateurs qui tournent au pas. En cas de grosse charge, la ventilation se met en mode soufflerie de réacteur, et si c’est encore insuffisant, le processeur se bride. 90% du temps, l’ordinateur est très très (très) discret.

Observer le système, c’est modifier le système

Mais voilà, il n’y a pas eu qu’un bug graphique, il n’y a pas eu qu’un processus qui est partie en mode « hamster dans sa roue » sur le proco, tout le système a planté, et donc les régulateurs sus-cités, qui tournent au dessus du système, n’ont rien pu faire. Et oui, un hamster, ça court très vite !

Comme tout le système avait planté, les régulateurs n’ont pas agis, et mon processeur a atteint la température limite (quelque part entre 90 et 100°C je suppose) alors que le ventilateur restait bien sage à 128 tr/min ou quelque chose comme ça.

En fait il y a un autre régulateur, au dessous du système, qui est sensé fonctionner même quand le système est planté, et qui est géré par le micrologiciel de la carte-mère. Mais malheureusement, il ne sait pas faire descendre mes ventilateurs en dessous des 600 tr/min ce qui reste encore assez bruyant… Donc je n’utilise pas ce régulateur, pas parce qu’il est proprio, mais parce qu’il est suboptimal !

Choix inique

J’espère que je ne rencontrerai pas de problème à long terme, parce que ça a quand même bien chauffé !

Là, le processeur est à 30° et son ventilateur tourne à 128 tr/min, et j’écris un journal sur DLFP, tout va bien. \_o< coin coin

Je n’ai pas fait de rapport de bug, car il faudrait que je reproduise, et j’ai peur de cramer mon système. Mais bon, peut-être que si je ne rapporte pas le bug, d’autres crameront leur système, en vrai…

Ça me rappelle un bug grave que j’avais rencontré et que je n’avais pas rapporté.

J’avais remarqué que lorsqu’on lançait un script de Steam à la main (au lieu de laisser l’interface graphique le faire, je crois que c’était .local/share/Steam/steam.sh), ce script faisait en gros l’équivalent de rm -Rf /, ce qui malgré les protections unix, peut tout de même rincer tout le home directory. Heureusement, ça n’avait rincé que mon chroot (j’avais eu la présence d’esprit de lancer Steam dans un environnement chrooté), mais chez un autre ça pouvait tout supprimer, et avoir des conséquences facheuses.

Un peu refroidi par le fait que Steam (l’équipe) ne s’inquiétait pas que Steam (le logiciel) ne s’installait pas sur SteamOS pendant deux mois, je n’avais pas reporté le bug. Heureusement, un autre l’a fait pour moi neuf mois plus tard. Quand j’ai vu ce bug, je me suis dit « oup's », heureusement, cette autre personne avait une sauvegarde, mais s’il avait perdu quelque chose d’important, je me serai senti un peu responsable, même si je ne le connais pas.

Alors, cette fois-ci, est-ce que je risque ma bécane, ou je laisse les autres faire flamber leur matériel ?

Bref, moralité de l’histoire : quand votre système plante, soit vous débuggez, soit vous utilisez un régulateur de température en espace utilisateur… mais ne faites jamais les deux en même temps ! Comme vous-êtes un peu geek, ça vous tente un peu de toucher à tout. Mais non, vraiment, c’est non !

  • # Problème de conception?

    Posté par  . Évalué à 8.

    Personnellement, ma dernière tour (pourtant sortie telle quelle des usines d'un grand fabricant dont le nom de 4 lettres commence par DE) n'était pas conçue pour tenir un calcul intensif, et je devais bosser l'été le capot ouvert. Il y a quand même quelque chose d'anormal pour un ordinateur de ne pas pouvoir faire tourner de gros calculs sans cramer, il s'agit quand même de machines conçues pour ça. C'est sûr que sur les pubs, plus il y a de cœurs et plus ça fait classe, mais si ça reboote toutes les 5 minutes, tout de suite c'est moins impressionnant…

    • [^] # Re: Problème de conception?

      Posté par  (site web personnel) . Évalué à 10.

      Un été j’ai fait cela pour refroidir un ordi portable :

      ventilo pc portable papier
      ventilo pc portable papier

      \o/

      ce commentaire est sous licence cc by 4 et précédentes

    • [^] # Re: Problème de conception?

      Posté par  (site web personnel) . Évalué à 5.

      Personnellement, ma dernière tour (pourtant sortie telle quelle des usines d'un grand fabricant dont le nom de 4 lettres commence par DE) n'était pas conçue pour tenir un calcul intensif, et je devais bosser l'été le capot ouvert.

      Ce qui est vraiment grave car normalement cela marche moins bien avec le capot ouvert, car le flux d’air est sensé être étudié pour être optimal capot fermé. Avec le capot ouvert, tu peux avoir de l’air chaud qui stagne dans des zones normalement ventilées (entre une entrée et une sortie).

      Il y a quand même quelque chose d'anormal pour un ordinateur de ne pas pouvoir faire tourner de gros calculs sans cramer

      Il y a quelques années, j’avais au boulot un serveur (qui sortait tel-quel d’un grand fabriquant dont le nom de 2 lettres commence par HP) qui ne savait pas réguler la ventilation en fonction de la température du processeur (c’était écrit dans une petite ligne comme quoi « l’option est absente pour le modèle N-889-truc » au milieu de plusieurs vingtaine de page de documentation). La seule régulation était celle-ci : en cas de surchauffe, le PC rebootait, et là, un gros coup de soufflerie se lançait à fond pour refroidir le processeur. Lors du redémarrage de l’OS (après le bios et tout), la ventilation reprenait son niveau minimal, sans aucun moyen d’action.

      Et en réalité, le serveur (qui était sensé être un NAS même s’il pesait plusieurs dizaine de kg) ventilait correctement tant que l’on ne remplissait pas les 6 baies de disques SCSI. Avec une paire ça marchait, avec deux paires ça allait encore, avec trois paires, le circuit d’air était bouleversé et il n’y avait plus d’air frais qui rentrait dans le dissipateur.

      Grâce à une extension de garantie, la carte-mère a été changée deux fois je crois. On s’en est débarrassé à la fin de cette extension de garantie. Sans regret.

      En ce moment même j’ai une série de serveurs de chez HP dont les interfaces réseau partent en vrac avec un simple lspci -vv. C’est la faute au firmware (proprio) et il n’y a pas de correctif. Il faut rebooter en cas de plantage.

      Il y a quand même quelque chose d'anormal pour un ordinateur de ne pas pouvoir faire tourner de gros calculs sans cramer, il s'agit quand même de machines conçues pour ça.

      Concernant ma machine, c’est une machine que j’avais taillée pour un FX-8350, et qui tenait très très bien. Avec le ventirad actuel, je pouvais réellement couper le ventilo du ventirad et ne compter que sur la ventilation du boîtier pour ventiler le dissipateur (je ne le faisais pas pour la raison évoquée dans le journal). J’ai eu l’occasion de revendre le FX-8350 et de prendre un FX-9590 pour presque rien, mais là, le ventirad que j’avais choisi pour le FX-8350 montre ses limites dans les cas extrêmes.

      En fait ce qui m’inquiète ce sont les yoyo de température, qui ont une bien plus grande amplitude qu’avant. Je n’oscille plus entre 30° et 60° (et une médiane à 40°), mais entre 30° et 70° (et une médiane à 44°). Dans les 98% du temps il n’atteint pas les 45°, ça reste correct.

      Globalement je suis assez content de la config, à l’instant même le GPU est à 33°C, le CPU est à 38°, le SSD du système à 28° et les disques dur de données entre 30° et 35°, alors que les divers ventilos tournent entre 130 tr/min et 212 tr/min. C’est hyper confortable.

      ce commentaire est sous licence cc by 4 et précédentes

      • [^] # Re: Problème de conception?

        Posté par  . Évalué à 8. Dernière modification le 25 novembre 2015 à 13:21.

        Ce qui est vraiment grave car normalement cela marche moins bien avec le capot ouvert, car le flux d’air est sensé être étudié pour être optimal capot fermé.

        J'ai souvent entendu ça, mais est-ce que c'est vrai? Dans les machines modernes, il y a pas mal de petits ventilos un peu partout, et surtout, les boitiers sont tous les mêmes alors que les composants sont modulaires (à l'achat, tu décides de mettre telle carte graphique, tel proc, etc). Déja que j'ai un peu de mal à imaginer l'étude des flux d'air dans une machine avec deux ou trois ventilos dont les vitesses peuvent varier (ça doit être complètement blindé de turbulences là-dedans, et ça peut faire des dizaines de combinaisons différentes en fonction des vitesses des différents ventilos), mais en plus faire ça dans toutes les configurations possibles, en sachant de l'ajout d'une carte Wifi, d'un disque dur, ou même de la position des cables peut renvoyer l'air chaud d'où il vient… Honnêtement, je n'y crois pas une seconde. J'imagine que le mieux qu'on puisse faire, c'est de mettre les trous dans une position qui assure plus ou moins que l'air entre d'un côté et ressort de l'autre.

        Capot ouvert, chaque ventilo prend l'air de la pièce et le balance sur le composant à refroidir. Je ne vois pas comment ça peut être plus optimal que ça, à moins d'imaginer qu'on puisse bénéficier de l'énergie cinétique du flux d'air dans la machine (mais bon, balancer de l'air chaud un peu plus vite, je ne pense pas que ça soit forcément une bonne idée).

        • [^] # Re: Problème de conception?

          Posté par  . Évalué à 9.

          Parce qu'à peut près tous les boitiers sont prévu pour prendre l'air en bas sur l'avant du boitier pour le sortir par l'arrière en haut. Même si tu ne fais pas une analyse précise des flux, il est facile d'éviter que les ventilateurs se gênent les uns les autres. Par exemple vouloir faire entrer l'air par le dessus de ton boitier est une ineptie quelque soit ce que tu met dans ton ordinateur.

          chaque ventilo prend l'air de la pièce et le balance sur le composant à refroidir.

          Tu crée une surpression, mais il va où ton air chaud ? Tu as aussi une partie de tes composants qui sont fait pour être refroidi par effet de bord.

          Tous les contenus que j'écris ici sont sous licence CC0 (j'abandonne autant que possible mes droits d'auteur sur mes écrits)

      • [^] # Re: Problème de conception?

        Posté par  (site web personnel) . Évalué à 3.

        (qui était sensé être un NAS

        il est insensé que tu ne saches pas être censé savoir écrire et différencier les mots « censé » et « sensé » ;-)

  • # prose très agréable !

    Posté par  (site web personnel) . Évalué à 9.

    La température du dissipateur redescend (mon petit doigt me dit, pour une fois il est assez fiable, là)

    j'ai ri \o/

  • # Reproduis

    Posté par  . Évalué à 10.

    Active le contrôleur du micrologiciel le temps de reproduire, reproduis, fais ton rapport de bug et désactive le contrôleur micrologiciel. Lui ne sera pas bloqué par la surcharge CPU.

    Et passe ton journal en dépêche aussi.

    Ça, ce sont les sources. Le mouton que tu veux est dedans.

    • [^] # Re: Reproduis

      Posté par  (site web personnel) . Évalué à 3.

      Active le contrôleur du micrologiciel le temps de reproduire, reproduis, fais ton rapport de bug et désactive le contrôleur micrologiciel. Lui ne sera pas bloqué par la surcharge CPU.

      Mon syslog a eu le temps d’enregistrer des trucs, j’ai fait un ticket: https://bugs.freedesktop.org/show_bug.cgi?id=93101

      Bon, à cause d’une mauvaise manip, mon ticket est parti en soumission avant de corriger certaines fautes… tant pis !

      Et passe ton journal en dépêche aussi.

      Boarf non, c’est juste du blabla de comptoir. :-)

      ce commentaire est sous licence cc by 4 et précédentes

      • [^] # Re: Reproduis

        Posté par  . Évalué à 4.

        Ce n'est pas parce qu'on trouve généralement les dépêches sur les comptoirs que l'inverse n'est pas envisageable ^ ^

  • # Tu ne risques pas grand chose, à part redémarrer

    Posté par  (site web personnel) . Évalué à 10. Dernière modification le 25 novembre 2015 à 09:48.

    J’espère que je ne rencontrerai pas de problème à long terme, parce que ça a quand même bien chauffé !

    Comme tu le disais plus bas, les processeurs et cartes graphiques se coupent avant d'atteindre la température critique qui abime le composant.
    Vu qu'il s'est coupé tout seul, c'est que cela a bien fonctionné.

    Je me dis « mince, mince ». Et là, inquiet, je sens le chaud, ça sent le chaud, vraiment le chaud là, « mince, mince, mince » me dis-je ! J’ouvre la tour, aucun dégât visible, je touche les différents dissipateurs, et j’arrive à celui du CPU… « mince, mince, mince, mince » je me brûle le doigt… et ça fait déjà trente secondes qu’il est éteint. o.O

    Bah oui mais sans ventilation ou dissipateur thermique efficace, la température mettra du temps à descendre. Même en usage normal tu peux avoir des difficulté à toucher ces éléments à chaud donc après une telle coupure c'est normal.

    Tu ne passes pas de 100°C à 30°C rapidement, surtout que l'air est plutôt isolant.

    alors là me vient une inquiétude… Quand le proco surchauffe, le proco s’arrête et l’ordinateur s’arrête avec lui, mais avec lui s’arrêtent aussi les ventilateurs.

    Ce n'est pas un problème, ton processeur n'étant plus alimenté, il n'y a plus d'addition de chaleur, il va directement commencer à se refroidir.
    Cela sera par contre plus long pour revenir à une température suffisamment basse pour relancer le système.

    EDIT:
    Après, si tu fais cela tous les jours, tu risques d'user plus rapidement ton processeur à force de faire de la dilatation thermique. Mais si cela reste très exceptionnel ce n'est pas très impactant.

    • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

      Posté par  (site web personnel) . Évalué à 4.

      J’espère que je ne rencontrerai pas de problème à long terme, parce que ça a quand même bien chauffé !

      Comme tu le disais plus bas, les processeurs et cartes graphiques se coupent avant d'atteindre la température critique qui abime le composant.
      Vu qu'il s'est coupé tout seul, c'est que cela a bien fonctionné.

      Oui, mais j’ai eu cette odeur de quelque chose qui avait surchauffé, comme quand quelque chose commence à brûler quoi. :/

      Ce n'est pas un problème, ton processeur n'étant plus alimenté, il n'y a plus d'addition de chaleur, il va directement commencer à se refroidir.

      Oui bien sûr, mais je ne suis pas sur que garder cette très haute température longtemps soit une bonne idée. :-)

      Même en usage normal tu peux avoir des difficulté à toucher ces éléments à chaud donc après une telle coupure c'est normal.

      De fait, ordinairement je peux toucher le dissipateur. :-)

      Après, si tu fais cela tous les jours, tu risques d'user plus rapidement ton processeur à force de faire de la dilatation thermique.

      Bien vu !

      ce commentaire est sous licence cc by 4 et précédentes

      • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

        Posté par  . Évalué à 9. Dernière modification le 25 novembre 2015 à 11:31.

        Cette odeur n'a rien d'inhabituel, cela arrive souvent aussi dans les appareils qui n'ont pas été allumés depuis longtemps (ou les radiateurs par exemple quand tu les redémarres avant l'hiver), c'est la surchauffe qui a provoqué une "micro combustion" de la poussiere dans ton pc. Rien d'anormal avec ce que tu as raconté

    • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

      Posté par  . Évalué à 2.

      Ce n'est pas un problème, ton processeur n'étant plus alimenté, il n'y a plus d'addition de chaleur, il va directement commencer à se refroidir.

      Tu es certain? Ça n'est pas le cas pour une lampe de vidéoprojecteur, par exemple. J'imagine que c'est parce que certains composants intermédiaires (entre le truc qui fait résistance et le dissipateur) vont se prendre de la chaleur sans pouvoir la dissiper normalement.

      • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

        Posté par  (site web personnel) . Évalué à 10. Dernière modification le 25 novembre 2015 à 10:36.

        Tu es certain? Ça n'est pas le cas pour une lampe de vidéoprojecteur, par exemple.

        Faut que tu m'expliques un truc, j'ai du louper pas mal de cours de physique apparemment…
        La lampe du vidéoprojecteur tout comme le processeur l'ordinateur sont dans ces systèmes le générateur de chaleur le plus puissant (excepté la carte graphique éventuellement mais qui est suffisamment loin pour être négligée).

        Quand le système se coupe par sécurité, si tu vis dans un environnement normal, tu n'as plus réellement de sources de chaleur dans le système et en apport extérieur. Donc comment ces composants pourraient voir leur température augmenter ? Sans apport calorifique, la température ne peut que s'homogénéiser à la baisse.

        EDIT:
        N'oublions pas que ces mécanismes de sécurité ont été mis en place par des personnes qui ont réfléchi au problème et qui de toute façon coupe le système avec une marge de sécurité. Et non à la température critique réelle.

        • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

          Posté par  (site web personnel) . Évalué à 3.

          On peut imaginer qu'en temps normal, le CPU diffuse principalement sa chaleur vers le radiateur, et que là, le radiateur étant "saturé" en chaleur (enfin en équilibre thermique avec le CPU quoi), la chaleur se diffuse vers les autres composants autour du CPU, qui ne sont pas prévus pour ça (et qui en plus ont leurs éventuels ventilos persos arrêtés aussi puisque tout est coupé).

          C'est à peu près l'hypothèse de la mort du Marathonien antique (enfin à l'envers si on fait l'analogie cerveau / CPU) : il s'est arrêté de courir d'un coup, la dissipation de chaleur via le corps (plus efficace que celle du crâne) s'est ralentie et cette chaleur est remontée au cerveau qui a surchauffé.

        • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

          Posté par  . Évalué à 8.

          Ça m'étonnerait que les concepteurs de vidéoprojecteurs se fassent chier (et fassent chier tout le monde) à gérer un délai de refroidissement actif avant la mise hors-tension si c'était inutile. L'hypothèse la plus simple est qu'il existe des composants sensibles C entre la résistance R (alimentée par l'énergie E) et le dissipateur D , E ----> R ---> C ----> D ----> Ventilo. Tu coupes le ventilo et la source de chaleur, il te reste E . R ---> C <----> D . Ventilo, autrement dit R et D se refroisissent mais C chauffe puisqu'il prend de la chaleur des deux côtés.

          Après, si tu as une autre idée pour expliquer pourquoi les lampes de vidéoproj peuvent claquer quand elles ne sont pas refroidies après avoir été éteintes (il suffit de demander à Google combien de gens ont eu des claquages de lampes à la suite d'une panne de courant par exemple), je ne demande qu'à voir…

          • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

            Posté par  (site web personnel) . Évalué à 5.

            Ça m'étonnerait que les concepteurs de vidéoprojecteurs se fassent chier (et fassent chier tout le monde) à gérer un délai de refroidissement actif avant la mise hors-tension si c'était inutile.

            Tous les ordinateurs qui ont un ventilateur ont ça aussi. Même pour les températures "basses", cela ne signifie pas que la moindre coupure brutale ou de sécurité que cela va casser. Le problème est notamment la répétition du procédé.

            La chaleur, même non critique dans un ordinateur, use tous les composants. Plus tu fais des cycles chaud-froid, plus ça va casser vite. Ce n'est pas pour autant que le composant va casser à la moindre coupure brutale. Je l'ai d'ailleurs dis dans un message précédent ce point là.

            Donc la ventilation avant coupure c'est mieux, et les ordinateurs le font, mais ces composants sont testés pour résister à quelques cas limites… Si tu t'amuses à débrancher comme un violent ton ordinateur, tu auras aussi des problème à la fin pourtant cela arrive de le faire exceptionnellement sans dommage.

            Mais bon, si tu vires la partie importante du post concernant la répétitivité de la situation, tu peux en effet conclure n'importe quoi.

            • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

              Posté par  . Évalué à 6.

              Tous les ordinateurs qui ont un ventilateur ont ça aussi

              J'ai eu plein d'ordinateurs, avec plein de ventilateurs, et je n'ai jamais vu ça, que ce soit pour les portables ou pour les tours : l'ensemble s'éteint immédiatement après l'arrêt du système (shutdown… écran noir, et PJJJjjjj, les ventilos s'éteignent).

              J'ai l'impression qu'en fait on ne parle pas de la même chose. Il est évident que les cycles chaud-froid esquintent les composants, qui ne sont de toutes manières pas faits pour durer plus de quelques années. Le point que j'essayais de soulever et qui était mentionné dans le post initial, c'est que dans certains cas, il semble que l'arrêt brutal et simultané de l'alimentation et du refroidissement actif sont plus dangereux pour les composants qu'un arrêt normal, et ça, c'est probablement dû au fait que certains composants se prennent un pic de chaud quand il sont entre le truc qui chauffe et le dissipateur/radiateur. C'est juste curieux que certains systèmes semblent souffrir d'un refroidissement lent (passif) par rapport à un refroidissement rapide (actif). Pour les processeurs, ça ne semble pas être le cas (tout du moins, les ventilos ne continuent pas à tourner après l'arrêt du proc), mais ça a l'air beaucoup plus systématique pour les systèmes de projection, que ça soit vidéoproj ou anciens trucs de cinéma, qui continuent à refroidir après la coupure de la source de chaleur. Bon, voila, il n'y a pas plus loin à aller…

              • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

                Posté par  (site web personnel) . Évalué à 4.

                J'ai eu plein d'ordinateurs, avec plein de ventilateurs, et je n'ai jamais vu ça, que ce soit pour les portables ou pour les tours : l'ensemble s'éteint immédiatement après l'arrêt du système (shutdown… écran noir, et PJJJjjjj, les ventilos s'éteignent).

                J'en ai vu plein où quand le processeur avait beaucoup travaillé il ventilait bien entre l'arrêt du système et l'arrêt électrique. Cela n'était pas le cas après un usage léger.

                Après ça doit dépendre des modèles aussi.

                Le point que j'essayais de soulever et qui était mentionné dans le post initial, c'est que dans certains cas, il semble que l'arrêt brutal et simultané de l'alimentation et du refroidissement actif sont plus dangereux pour les composants qu'un arrêt normal, et ça, c'est probablement dû au fait que certains composants se prennent un pic de chaud quand il sont entre le truc qui chauffe et le dissipateur/radiateur.

                Mon point de vue était bien que ce risque existait s'il était répété, pas quand c'était peu courant.
                Comme je le disais, les fabricants de ce genre d'appareils ont des tests dédiés à ces cas critiques (alors oui, si ta carte mère provient d'une marque douteuse, cela n'est peut être pas le cas). Le but pour eux est de vérifier si en cas de coupure brutale (électrique par l'utilisateur ou automatique par les mesures de sécurité) si cela tient bien. Et normalement la conception comme les tests doivent s'assurer que si cela est fait rarement cela tiendra le coup mais si tu fais ça tous les jours ça va claquer définitivement.

                Sinon ils feraient la sécurité du système autrement.

                mais ça a l'air beaucoup plus systématique pour les systèmes de projection, que ça soit vidéoproj ou anciens trucs de cinéma, qui continuent à refroidir après la coupure de la source de chaleur.

                Ils le font car si la coupure brutale se fait trop souvent, ça claquerait oui. Ce que je veux dire c'est que si tu as une coupure de courant durant la vie d'un vidéoprojecteur, il va résister sans problème (sauf s'il a pris la foudre mais là :D). Mais si tu l'éteins tous les jours sans le refroidissement préalable, il va claquer. C'est pareil pour l'ordinateur qui n'aimerait pas d'être coupé brutalement en plein stress thermique régulièrement.

        • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

          Posté par  . Évalué à 4.

          Probablement parce que ce n'est pas la "source" de chaleur que tu tiens à protèger, mais quelques chose d'assez proche ?
          Genre quand tu coupes l'alimentation, la température à la source n'augmente pas (voire diminue), tandis que l'objet (ou le gaz?) qui est à son voisinage, n'ayant plus de refroidissement, subit une augmentation de sa température par l'influence de la dite source qui possède à ce moment une température encore largement plus importante.

          Une solution imaginable c'est de refroidir une "masse" jusqu'à un niveau plus bàs que la température ambiante, afin d'"absorber" le surplus de chaleur en cas de rupture d'alimentation électrique. Mes notions de physiques sont assez éloignée, mais quelque chose me dit que ce serait très peu efficace en terme de rendement énergétique. Une autre solution c'est d'avoir une batterie… ou (moins cher) de ne pas retirer l'alimentation :p

          • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

            Posté par  (site web personnel) . Évalué à 4.

            Tu crois que ce n'est pas testé ? Les concepteurs de cartes mères et fondeurs de processeurs testent ces cas limites et même au delà exprès.
            Comme je l'ai précisé et c'est ça qui est important : tout a été conçu pour que la sécurité puisse sauver l'appareil si cela arrive occasionnellement. Si tous les jours la sécurité de ton processeur s'active ou que tu débranches ton appareil électronique sans le couper avant, à la fin tu auras des problèmes. Mais c'est la répétition le problème, pas quand cela arrive rarement. C'est le sens de mon propos.

            • [^] # Re: Tu ne risques pas grand chose, à part redémarrer

              Posté par  . Évalué à 1.

              J'essayais juste d'apporter une hypothèse de réponse à la question du pourquoi faut-il laisser un projecteur refroidir.

              Mais c'est la répétition le problème,[…]

              Je suppose que oui, néanmoins un pc n'est pas un projecteur où il ne suffit que d'une fois, heureusement pour toi d'ailleurs ;-) Par contre, c'est clair que ton cpu ne risque pas de vivre vieux si cela lui arrive tous les jours, comme tu les dis bien c'est une mesure de "sécurité" (pour le cpu).

              Bref, je pense qu'on a tous les deux bien compris qu'il s'agit d'un compromis entre le coût, la performance, la fiabilité et la sécurité. Pour cette dernière, il y a des minima imposés (i.e. ton pc ne devrait jamais brûler ta maison en cramant). En passant, tu parlais principalement de fiabilité là. 'fin bref j'imagine que tu es tombé ("loi du marché oblige" marche aussi) sur une conception qui penche plus du côté perf/coût que du côté fiable, à part cela je n'ai rien d'autre à apporter :P

      • [^] # Lampes

        Posté par  . Évalué à 6.

        Ça n'est pas le cas pour une lampe de vidéoprojecteur, par exemple.

        Je ne sais pas si le cas est exactement le même pour les lampes de vidéoprojecteurs, dont la technologie n’est peut-être pas la même (lampes à arc…), mais pour les lampes de projecteurs classiques (rétroprojecteurs, projecteurs diapos…), le truc est que la lampe est fragilisée à chaud.

        La refroidir avant de déplacer l’appareil évite le risque de la claquer, mais elle n’est pas plus fragile après une extinction brutale (sans continuer de ventiler la lampe) que quand elle est allumée, c’est juste que tu transportes rarement l’appareil allumé (avec le fil , c’est moins pratique…).

        « Le fascisme c’est la gangrène, à Santiago comme à Paris. » — Renaud, Hexagone

  • # :-)

    Posté par  . Évalué à 9. Dernière modification le 25 novembre 2015 à 10:46.

    Tiens, ça me rappelle il y a maintenant un paquet d'années, quand je bossais pour un assembleur, et que j'ai vu passer quelques processeurs fondus. Oui, carrément fondus. Je me souviens notamment d'un Cyrix 166MX et d'un Pentium 233MMX qui n'étaient pas très jolis à voir. Heureusement, des protections ont été mises en place depuis, et semblent être effectives.

    Le plus flippant que j'ai eu, c'est une alimentation PC qui un jour a explosé à la mise sous tension : une sorte de nuage enflammé (ou plutôt électrique, je ne saurais pas trop le décrire) d'un mètre de long qui est sorti de l'alimentation dans un gros bang, le capot du PC se déboîtant sous la pression. Bien entendu, en mourant, l'alimentation (chinoise bas de gamme, dont je doute fortement de la conformité) a génocidé tous les composants du PC en leur envoyant une bonne surcharge.

    C'est d'ailleurs fort de mon expérience de quelques années dans le domaine qu'aujourd'hui je prête une attention toute particulière aux marques et à leur taux de panne, certains produits bas de gamme ou de marque inconnue ayant une durée de vie et des performances incroyablement mauvaises comparées à d'autres à peine plus chères qui survivent à des années d'utilisation intensive sans broncher.

    On avait sur certaines pièces jusqu'à 90% de déchets à la réception (certains disques durs « made in India »), et sur d'autres pas loin de 100% de panne après la première année (certains lecteurs CD-Rom 24X), ça me faisait vraiment mal de voir des gens acheter ce genre de matériel, croyant faire une bonne affaire sur le bas prix à l'achat…

    Et à ce jeu là, même les marques ne sont pas à l'abri, je me souviens d'une très mauvaise série de disques durs Western Digital Caviar, marque pourtant très réputée à l'époque, et dont on a du avoir dans les ~30% de retours sur l'année concernant leur série ~800 Mo. Aujourd'hui, Western Digital reste l'un des fabricants les plus fiables, si ce n'est le plus fiable.

    En tout cas, le ton de ton journal m'a beaucoup amusé. :-)

    • [^] # Re: :-)

      Posté par  (site web personnel) . Évalué à 6.

      Je me rappelle aussi d'une série (de quelques millions) de petits condensateurs (chinois) livrés aux (grands) intégrateurs. Petits condensateurs qui se sont mis à fuir, après ~ 1 an d'usage. Ils faisaient partie des étages de régulation des tensions processeurs (Je ne vous raconte pas la multiplicité des bugs comportementaux des machines…). Je ne sais plus combien j'ai changé de carte-mères, toutes marques et modèles confondus pendant les deux années qui ont suivi…

      Proverbe Alien : Sauvez la terre ? Mangez des humains !

      • [^] # Re: :-)

        Posté par  (site web personnel) . Évalué à 3.

        Un bon fer à souder et un peu de dextérité digitale permettent d'économiser de nombreuses cartes mères.

        « IRAFURORBREVISESTANIMUMREGEQUINISIPARETIMPERAT » — Odes — Horace

        • [^] # Re: :-)

          Posté par  . Évalué à 5.

          C'est un compromis à trouver: l'absence de fer à souder permet aussi d'économiser pas mal de doigts…

        • [^] # Re: :-)

          Posté par  . Évalué à 10. Dernière modification le 25 novembre 2015 à 13:09.

          digitale numérique, bordel! Euhhh…

          • [^] # Re: :-)

            Posté par  . Évalué à -1.

            Sauf s'il parlait de ses doigts… et la dexterité, ça a souvent un rapport avec les doigts quand même

            • [^] # Re: :-)

              Posté par  . Évalué à 7.

              Thanks, cap'tain \o_

              *splash!*

            • [^] # Re: :-)

              Posté par  . Évalué à 4.

              OFFICER ON DECK ! °□°

              <o

              *splash!*

              • [^] # Re: :-)

                Posté par  . Évalué à 1.

                CHEF OUI CHEF !

                <o

                • [^] # Re: :-)

                  Posté par  . Évalué à 3.

                  repos.

                  *splash!*

    • [^] # Re: :-)

      Posté par  (site web personnel) . Évalué à 2.

      Je me souviens d'une très mauvaise série de disques durs Western Digital Caviar
      Aujourd'hui, Western Digital reste l'un des fabricants les plus fiables, si ce n'est le plus fiable.

      Je me souviens d'une très mauvaise série de disques durs externes Western Digital My Book 1 To, où plusieurs m'ont lâché après 2 ans maximum d'une utilisation moyenne…

      De mon expérience perso, LaCie est bien plus fiable.

      • [^] # Re: :-)

        Posté par  . Évalué à 5.

        Je peux me tromper, mais il ne me semble pas que LaCie produise des disques dur, juste la boite qui va autour. A l'intérieur, tu aurais bien pu retrouver le même modèle de disque WD (même si depuis qu'ils ont été rachetés par Seagate en 2012, j'imagine qu'ils se fournissent à la source).

      • [^] # Re: :-)

        Posté par  . Évalué à 4. Dernière modification le 25 novembre 2015 à 22:25.

        Je me souviens d'une très mauvaise série de disques durs externes Western Digital My Book 1 To, où plusieurs m'ont lâché après 2 ans maximum d'une utilisation moyenne

        J'ai été victime du même modèle en effet, qui a claqué entre 1 et 2 ans d'utilisation très occasionnelle.

        D'ailleurs, j'ai confondu, c'est Hitachi (HGST) qui est le fabricant de disques durs les plus fiables actuellement (et qui l'était déjà il y a plusieurs années, la dernière fois que j'avais regardé), Western Digital étant bon, sans plus, voire mauvais sur certains modèles.

        http://www.hardware.fr/articles/944-6/disques-durs.html
        https://www.backblaze.com/blog/best-hard-drive-q4-2014/
        https://www.backblaze.com/blog/best-hard-drive/

  • # Frequence

    Posté par  . Évalué à 3.

    les 8 cœurs passent instantanément de 4.7GHz à 1.4GHz,

    4,7GHz c'est la fréquence normale ou tu as overclocké le CPU?
    je ne savais pas qu'il y avait sur le marché des CPU qui montent aussi haut en fréquence (mais j'ai pas vraiment suivi les dernières sorties )

    • [^] # Re: Frequence

      Posté par  (site web personnel) . Évalué à 6.

      4.7GHz, c’est la fréquence normale du CPU. C’est un AMD FX-9590.

      En fait le FX-9590 c’est grosso-modo un FX-8350 (qui monte à 4GHz en condition normale) overclocké par le constructeur, donc c’est fait bien plus proprement que si je l’avais fait moi-même (et y a juste à brancher !). Le présent stress test montre qu’il survit plutôt bien.

      Certains le poussent à 5GHz mais je ne joue pas à ça, et mon dissipateur montre déjà ses limites. ^^

      ce commentaire est sous licence cc by 4 et précédentes

      • [^] # Re: Frequence

        Posté par  . Évalué à 4.

        Tu aurais plus de perfs avec un i5 6500 à 3,2 Ghz… Ce n'est plus vraiment les Ghz qui comptent depuis longtemps…

        "Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)

        • [^] # Re: Frequence

          Posté par  . Évalué à 1.

          Ça dépend sur quel logiciel, il reste des trucs comme une compression xz qui sont très liés au GHz du CPU.

          ⚓ À g'Auch TOUTE! http://afdgauch.online.fr

          • [^] # Re: Frequence

            Posté par  (site web personnel) . Évalué à 4.

            sans compter les logiciels de calcul intensif tellement bien développés qu'ils sont mono-process… et ne tournent en conséquence que sur un seul cœur vu qu'il n'y a bien sûr pas de multi-thread non plus /o\ exemple : de superbes logiciels basés sur une techno performante comme visual basic :/

            • [^] # Re: Frequence

              Posté par  (site web personnel) . Évalué à 9.

              (J'ai foutu du café partout en lisant "calcul intensif" et "visual basic" dans la même phrase !)

              Tant qu'a cracher, tu peux aussi cracher sur Fortran, C, C++ et tous les vieux langages des années 70~80 dont sont écrit la majeure partie des noyaux de calcul que je vois passer tous les jours.

              Le parallélisme est un paradigme récent. On ne re-écrit pas d'un claquement de doigt un code Fortan ultra-optimisé, parfois écrit (et généralement non-commenté) dans un dialecte de Fortran que seuls deux post-docs au monde sont capable de comprendre, mais dont les résultats n'ont toujours pas été infirmés, et surtout, surtout, sont "justes" (cadrent avec la théorie ET l'observation).

              Des codes qui sont purement séquentiels, qui scalent difficilement en (équivalent) OpenMP, ou qui tassent dès O(64) en (équivalent) OpenMPI, je peux en citer des milliers. Des codes (pas en développement) qui scalent vraiment bien au-delà O(1024), j'en connais pas des masses…

              Proverbe Alien : Sauvez la terre ? Mangez des humains !

            • [^] # Re: Frequence

              Posté par  . Évalué à 3.

              sans compter les logiciels de calcul intensif tellement bien développés qu'ils sont mono-process

              Ce n'est pas la question. Simplement, les processeurs AMD récents font beaucoup moins de travail par cycle d'horloge et par thread que les processeurs Intel concurrents.

              C'est pour ça qu'AMD se sent obligé de sortir des processeurs montant très haut en fréquence et consommant jusqu'à 200 W (cf. http://www.hardware.fr/focus/99/amd-fx-8370e-fx-8-coeurs-95-watts-test.html).

          • [^] # Re: Frequence

            Posté par  . Évalué à 5.

            Je sais pas d'ou tu tires cette affirmation. La compression en général, c'est aussi très sensible à la latence des caches et à celle de la mémoire (y'a notamment des accès à des dictionnaires stockés en cache ou en mémoire).

            Sur le 7-zip LZMA benchmark, on voit que qu'utiliser l'hyperthreading apporte un gros gain. Par exemple sur un i7 3770 (4 cœurs), passer de 4 à 8 thread permet de passer de 15000 MIPS à 21000 MIPS en compression (+25%, ce qui est un gros gain pour de l'HT). Ça montre qu'il y a des "trous" dans le pipeline dus à des accès mémoire (ou cache).

            Aussi tu remarqueras qu'un i7 980X (6 cœurs à 3.33Ghz) fait nettement mieux qu'un FX-8350 (8 cœurs à 4.0Ghz) sur de la compression/décompression LZMA. Un core i7 6700 (4 cœurs à 3.4Ghz) fait quand à lui aussi bien que le FX-8350 tout en ayant 2 fois moins de cœurs et une fréquence inférieure de ~12%.

            Bref, je suis pas du tout convaincu par l'idée que la compression dépend beaucoup de la fréquence du CPU (enfin plus exactement, que la compression dépend particulièrement de la fréquence du CPU, en comparaison à d'autres workload). Vu que c'est une workload qui se parallélise bien, plus de cœurs (e.g. 8 au lieu de 4), ça apporte effectivement un bénéfice.

        • [^] # Re: Frequence

          Posté par  (site web personnel) . Évalué à 1.

          Pas du tout, mon FX-8350 est même légèrement plus rapide que certains I7 en compilant le même programme!

          • [^] # Re: Frequence

            Posté par  . Évalué à 3.

            C'est pas le même type de tâches.

            Les procos AMD, et notamment les hauts de gamme octocores FXmachin sont très bien pour des trucs qui exploitent bien le multithread comme la compilation ou l'encodage. Un make -j9 sur un haut de gamme AMD c'est du pur bonheur.

            Alors que les procos Intel sont plutôt bons pour les trucs qui ont plus de mal à exploiter le multithread et qui sollicitent parfois un ou deux cœurs à fond comme les jeux vidéos.

            Et ce que j'avais entendu dire lors de l'avant-dernière génération des cartes AMD et Nvidia, c'est qu'on retrouvait une tendance similaire au niveau des GPU : les cartes haut de gamme d'AMD étant super pour faire des calculs en parallèle, mais laissant les haut de gamme Nvidia en haut du podium pour les jeux et le rendu 3D.

            *splash!*

            • [^] # Re: Frequence

              Posté par  (site web personnel) . Évalué à 2. Dernière modification le 26 novembre 2015 à 14:45.

              Les procos AMD, et notamment les hauts de gamme octocores FXmachin sont très bien pour des trucs qui exploitent bien le multithread comme la compilation ou l'encodage. Un make -j9 sur un haut de gamme AMD c'est du pur bonheur.

              Oui, et c'est pourquoi j'ai pris un FX-8350 à 170€ pour ma workstation, machine de build de paquets Debian/Windows QElectroTech et devel, je ne fait que des make -j9 meme en environnement de cross-compilation avec MXE. Comme tu dis : c'est un régal, et ils n'ont pas à rougir devant les Intel bien au contraire !

              Les jeux … je joue plus depuis bien longtemps

              • [^] # Re: Frequence

                Posté par  . Évalué à -4. Dernière modification le 26 novembre 2015 à 14:49.

                Les jeux … je joue plus depuis bien longtemps

                T'es trop un adulte ! Félicitations ! :)

                Sérieusement, jeux ou non, les CPU Intel sont équivalents pour moins cher depuis des années, à cause (notamment) de leur finesse de gravure supérieure.

                "Quand certains râlent contre systemd, d'autres s'attaquent aux vrais problèmes." (merci Sinma !)

        • [^] # Re: Frequence

          Posté par  . Évalué à 8.

          Dans les benchmark le FX9590 est au niveau des i7 (4 coeurs) de Intel. Mais en consommant probablement deux fois plus, certes.

          Après c'est sûr qu'on ne rivalise pas avec les Xeon ou les i7 à 6 coeurs, mais il faut voir le prix… l'AMD est à 250€, tandis que Intel c'est minimum 500€ voire +1000€ pour les modèles haut de gamme.

      • [^] # Re: Frequence

        Posté par  . Évalué à 6.

        Par contre le TDP à 220W c'est quand même fort ^
        Là où le standard des 4 coeurs est 95W depuis des années.

        • [^] # Re: Frequence

          Posté par  . Évalué à 5.

          AMD donne le TDP max, tandis que Intel donne le TPD pour une utilisation "habituel".

          • [^] # Re: Frequence

            Posté par  . Évalué à 9.

            Attention à ce qu'on entend par utilisation habituelle. Un Core i5-4690 à un TDP de 84W et consomme bien moins quand il n'est pas "à fond". La preuve, j'en ai un dans une machine et la machine complète consomme moins de 40W en utilisation web/bureautique/développement (enfin quand je suis pas en train de balancer un make -j8).

            C'est vrai qu'Intel et AMD ont différentes manières de mesurer le TDP. D'après Anandtech:

            • Intel: TDP = Consommation du processeur pendant l'exécution de benchmarks CPU-intensive
            • AMD: TDP = Consommation maximale théorique du CPU (à fréquence maximale et voltage maximal)

            Donc à mon avis une phrase plus exacte serait: « AMD donne le TDP théorique, tandis que Intel donne le TDP expérimental ».

            Après, très honnêtement, depuis maintenant de nombreuses années, AMD se fait complètement exploser par Intel au niveau efficacité de la micro-architecture et des process de fabrication. Pour rester un peu dans la course, AMD compense en fabriquant des processeurs à bas coût avec beaucoup de cœurs à très haute fréquence. Ça permet d'obtenir une perf plus ou moins équivalente à prix équivalent, mais ça se fait au détriment de la consommation énergétique. Depuis 5+ ans, on voit plus du tout de clusters de calcul avec des Opterons dedans, c'est du Xeon partout. Je suppose que c'est parce que les Opterons consomment beaucoup trop en comparaison à un Xeon de puissance équivalente.

            • [^] # Re: Frequence

              Posté par  (site web personnel) . Évalué à 2.

              Depuis 5+ ans, on voit plus du tout de clusters de calcul avec des Opterons dedans, c'est du Xeon partout. Je suppose que c'est parce que les Opterons consomment beaucoup trop en comparaison à un Xeon de puissance équivalente.

              C'est surtout parce que depuis quelques années, AMD n'a pas sorti de nouveau processeurW micro-architecture pour serveur. Ils se sont concentrés sur Fusion, sur l'A-10, sur Kaveri, sur l'absorption d'ATI jusqu'au processeur… et bien sûr le marché des consoles.

              J'ai encore des clusters sur base AMD. Je ne les échangerais pas pour deux barils d'Intel. Et je suis pas prêt de les éteindre.

              Ils ont aussi produit beaucoup d'annonces. Plein. Super sexy au niveau techno. Beaucoup. Mais des produits en volume, nada que pouic. Les grands intégrateurs (à 2, 3, 4 ou 6 lettres) ont arrêté les gammes serveurs contenant de l'AMD, y'avait plus de nouveaux processeurs à mettre en face d'Intel…

              Mais le jour où AMD sortira enfin (!!) son CPU+GPU pour serveur, en volume… Toute la partie logicielle étant déjà dans les tuyaux, le match CUDA <-> OpenCL pourra enfin avoir lieu.

              Proverbe Alien : Sauvez la terre ? Mangez des humains !

              • [^] # Re: Frequence

                Posté par  (site web personnel) . Évalué à 2. Dernière modification le 26 novembre 2015 à 12:04.

                Depuis 5+ ans, on voit plus du tout de clusters de calcul avec des Opterons dedans, c'est du Xeon partout. Je suppose que c'est parce que les Opterons consomment beaucoup trop en comparaison à un Xeon de puissance équivalente.

                C'est surtout parce que depuis quelques années, les fondeurs pour AMD ne sont pas descendu en gravure comme Intel.
                C'est évident qu'un proco gravé en 22mn et maintenant 14 mn pour les derniers INTEL consommerons bien moins que les AMD gravé en 32mn.

                • [^] # Re: Frequence

                  Posté par  . Évalué à 5.

                  Bof, les Sandybridge ( en 32nm ) avaient déjà un rapport perf/watts plus élevés que les amd.

                  • [^] # Re: Frequence

                    Posté par  . Évalué à 0.

                    Ça dépendait des benchmarks. AMD a toujours été une référence pour le calcul sur les nombres entiers, quand Intel était meilleur en flottants (notamment avec les instructions vectorielles) et sur la bande passante CPU/cache & mémoire.

                    • [^] # Re: Frequence

                      Posté par  . Évalué à 3.

                      AMD a toujours été une référence pour le calcul sur les nombres entiers

                      Ça fait longtemps que ce n'est plus le cas (depuis une dizaine d'années, en fait).

  • # Bug culte

    Posté par  . Évalué à 3.

    C'est le même genre de bug qui a inspiré Neal Stephenson pour son roman Snow Crash. La classe quoi.

    Faut pas gonfler Gérard Lambert quand il répare sa mobylette.

  • # Nouveau ?

    Posté par  . Évalué à 1.

    Juste comme ça, ton pilote graphique, ça ne serait pas Nouveau, par hasard ?

    « Le pouvoir des Tripodes dépendait de la résignation des hommes à l'esclavage. » -- John Christopher

  • # Priorité à régler ?

    Posté par  . Évalué à 10.

    Tu devrais peut-être basculer les procesus de contrôle de la température en mode temps-réel FIFO. Comme ça, un process en mode standard ne devrait plus pouvoir faire monter la température sans que tu puisses la faire baisser.

  • # Régulateur suboptimal

    Posté par  . Évalué à 0.

    Donc je n’utilise pas ce régulateur, pas parce qu’il est proprio, mais parce qu’il est suboptimal !

    Il est peut-être suboptimal, mais il t'aurait évité cet arrêt d'urgence.

    • [^] # Re: Régulateur suboptimal

      Posté par  (site web personnel) . Évalué à 2.

      dans ce cas je n’aurai pas acheté des ventilos qui tournent à 128 tr/min dans l’unique but de ne pas les entendre. ^_^

      ce commentaire est sous licence cc by 4 et précédentes

  • # Pilotes 3D en version beta

    Posté par  . Évalué à 8. Dernière modification le 26 novembre 2015 à 09:11.

    Ce n'est pas un bug, c'est une fonctionnalité 3D rudimentaire.

    Il faut que tu essayes de faire le point à l'infini avec tes yeux et tu devrais voir des formes en 3D.

    D'autres exemples ici.

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.