Aller au contenu

BlackLightning

INpactien
  • Compteur de contenus

    19
  • Inscription

  • Dernière visite

Visiteurs récents du profil

Le bloc de visiteurs récents est désactivé et il n’est pas visible pour les autres utilisateurs.

BlackLightning's Achievements

  1. C'est pas mon impression de manière générale mais j'utilise principalement Numpy, Scipy, Matplolib et la bibliothèque standard. Il est vrai que pour Matplotlib j'ai parfois cette impression, mais bon au vu de la complexité et de sa souplesse, je suis pas vraiment surprise. Après ayant apprise le C comme premier langage (en autodidacte) et ayant une fascination pour le "bas-niveau", il se peut que la réflexion qui consiste à comprendre le "dessous des codes" m'est plus ou moins naturel et vient en tapant le code. Par contre, j'ai connu un étudiant qui me disait la même chose pour l'usage de Python en mode "web" avec Django. C'est redoutable ! 😉 Mais ça marche super bien qu'avec des tableaux. Dès que tu utilises de la listes, des arbres et autres structures "moins naturelles", je trouve que c'est pas aussi friendly. Ou pas du tout 😆 En général si tu codes bien en C, tu codes bien en Python. Par contre l'inverse n'est pas toujours vrai. Et une usine à gaz en Python est moins encline à bugger qu'en C à de la gestion mémoire, que tu mentionnais à la fin de ta phrase. Le C++ me plaît bien car il permet une certaine souplesse et la possibilité via les classes de décrire des objets complexes en exposant des fonctionnements simple (exemple avec l'algèbre matricielle). Par contre, oui le compilateur fait parfois des choses bizarres avec les classes et on perd en performance au contraire du C. Par contre je vois pas en quoi le C++ et plus portable que le C. Pour moi, les compilateurs C sont plus facilement présent sur les autres architectures que le C++, et quand ils sont présent, parfois le support de la norme n'est pas toujours complet.
  2. @ashlol Avec Proton sous Steam, je suis pas embêtée plus que ça. Par contre, les émulateurs consoles ça marche bien pour les jeux PS4 ou c'est comme à "l'époque" (c-à-d un peu au petit bonheur là chance en fonction des jeux et des DRM) ?
  3. @ashlol Ouep, j'ai déjà postulé par chez eux. Merci Pourquoi ? Je concède que j'ai pas vu beaucoup de codes en pur Python mais j'en ai vu beaucoup pour faire du post-traitement ou de l'IA en utilisant plusieurs milliers de coeurs et plusieurs GPU. Par contre des codes avec du Python pour l'enrobage et du C/C++ pour les solveurs, ça j'en ai vu. Ce souci n'est pas propre au web. Il est en vigeur à partir du moment où le ratio salaire/cout_serveur devient favorable au serveur. Rajoute qu'il faut ajouter un coefficient de "compréhension" qui fait qu'AWS ça claque plus aux près du boss que la vectorisation, OpenMP ou autres.
  4. @fry Le php c'est quasiment juste de nom que je connais. Je suis plus C/C++, asm x86_64, Fortran, Python, OpenCL et CUDA. Les technos web, bien j'aimerai les apprendre, mais là je suis assez proche du niveau noob. @RinDman Merci pour l'idée. J'avais déjà recherché sur LinkedIn chez des ESN, mais celle sur laquelle je suis tombé (comme Atos, Capge...) ne font pas de TT.
  5. @ashlol Je ne sais pas, ça fait un sacré bail que je n'ai pas joué sous Windows. Mais pour mon usage et ma fréquence, je n'ai jamais ressenti le besoin d'aller sous Windows. Je suis plus frustrée par le fait que certains jeux n'existent pas sur PC mais uniquement sur les consoles. Je suis d'accord pour la lecture de l'I2C. @fry +1
  6. Salut tout le monde, Je suis à la recherche d'un job en full-TT. J'ai déjà regardé sur quelques sites, mais les jobs de développeuses logiciels spécialisé en calculs haute-performance se font toujours sur site. A croire que les grosses boîtes n'ont pas compris les avantages du TT pour elles-même et leurs employés. Vous auriez des noms de boîtes qui acceptent le full-TT (ou au plus 1 jour par semaine en présentiel) en France tout en restant dans le domaine technique/scientifique ? Merci.
  7. Ah oui mais Windows c'est pas une option pour moi. Mais ça doit aussi se faire du coté Linux, même si je vais devoir faire un peu de reverse. En tout cas merci à vous tous pour la réflexion !
  8. Perso je ne le ferais pas de cette façon car j'aurais peur que mon algo se prennent les pieds dans le tapis, en plus d'augmenter significativement la présence de minima locaux et de temps de calculs. Une astuce assez courant quand on fait ce genre de choses consiste à altérer la photo afin de rendre robuste ton classifieur. Par exemple, tu peux faire pivoter l'image avec différents angles, modifier le constraste, la luminosité, la saturation... Après, tu peux aussi faire du pré-traitement sur ton image afin d'éliminer les zones qui ne t’intéresse pas où pour faire "ressortir" des éléments utiles, et travailler sur ces éléments.
  9. Merci pour les précisions. Clairement, l'idée brice.wernet concernant deux machines est entrain de faire son petit chemin. A vrai dire, comme mon laptop a encore assez de puissance pour faire du jeux ça pourrait même valoir le coup de le garder (je pensais le mettre en retraite chez mes parents ou sur le marché d’occasion) et d'investir uniquement dans une machine de calcul. Pour répondre aussi l'aspect temporel, je compte pas dans l'immédiat acheter la/les machines. Je prototype les bestiaux pour avoir une idée du coût d'achat. L'achat se fera au mieux d'ici quelques mois voir dans 1,5 ans max. Je cherche pas à attendre le composant ultime (car sinon on n'achète jamais), juste que les voyants soient aux verts avant l'achat. Question : Est-ce que tu peux loger la température de cette façon ?
  10. Sérieux ça existe encore ce genre de comportements ? Autant qu'un jeu combine du CUDA et du rendu ne me choquerait pas. Le direct CPU ira pour la CG de calculs sauf si l'UEFI a quelque chose à redire avec l'affichage graphique. Mais il me faudra chercher du coté d'une CM plutôt serveur, peut-être. Quand au directstorage, c'est prévu d'être compatible avec Proton ? Et en plus, elles sont moins RGB blink-blink et l'UEFI est fortement configurable. C'est une excellente remarque ! Je vais y réfléchir parce que ça me plaît cette idée d'avoir deux machines aussi.
  11. Ok. Merci pour les références. Mais quelle co*** je fais. Je le sais en plus ! Visiblement les Lian Li ont l'air d'avoir superbe réputation.
  12. Je tourne sur les deux (CPU & GPU) en fonction des codes. Je me suis pas étalée sur ces points, mais je vais quand même te répondre car tu as pris le temps d'écrire à ce sujet. Pour la faire courte, je bosse dans le privé mais j'ai encore des relations de travails (et pour certaines d'amitiés) avec d'anciens collègues du monde de la Recherche (française & internationale). Pour certanes relation de travail, je développe ou je maintiens une partie de leur code que je lance ensuite sur ma machine afin de leur fournir des résultats en plus, ou pour explorer des pistes avec des probabilités de succès plus faibles. Certains codes sont des évolutions de mes codes, lesquelles contiennent des solveurs pour GPU (en CUDA & OpenCL), d'autres sont issus de doctorants et de post-docs dont le portage sur GPU n'a pas été effectué. Parfois, je porte aussi certains de leur code sur GPU. Pour toutes ses raisons, je souhaite avoir pas mal de coeurs (quand à choisir entre Ryzen ou ThreadRipper mon coeur balance) mais aussi du GPU en fonction des codes qui doivent tourner. Bref, je souhaite garder une certaine souplesse entre les différents codes. Pour l'AVX-512, c'est parce que les perfs que j'ai vu avec le "double pumping" d'AMD me botte plus qu'Intel. Et que pour certains codes, le portage vers le GPU est plus long que d'optimiser le code CPU pour de l'AVX-512 (et que les équipes en questions ont plus de mal à avoir des GPU que des CPU à des tarifs abordables). Pour la BDD, je sers surtout de site de backup low-cost (avec donc ce que ça implique) à un confrère nippon. Il accède uniquement à la base tous les mois pour faire quelques mises à jours pour récupérer des données qu'un de ses étudiants auraient alterés (pour ne pas dire sabré parfois). Clairement, on n'est pas sur une activité très sollicitatrice. Et de toute façon, ma connexion Internet n'ai pas suffisante pour faire plus. A titre perso, j'ai une petite base de données (quelques centaines de Go) que j'utilise quotidiennement pour des observations en optique, IR et radio du ciel nocture pour des évenements types météores ou décharges plasmas. Cette base sqlite (ça te donne une idée de ce que je fais avec) me sert d'archive pour stocker la date, l'heure et les images du ciel afin de les partager dans un projet de sciences citoyenne avec la NASA. Donc encore une fois, rien de très sollicitants. Et les quelques fois où je dois retrouver des données ou entrainé ma petite IA débile, c'est pas la lecture de la BDD qui me pose le plus de problèmes en termes de perf. Merci pour avoir soulevé le point de la dd5. Parce que j'ai remarqué que jouer (TW3, 7DaysToDie, Farcry5...) tout en faisant tourner un solveur sur le GPU (même avec une faible consommation mémoire) ou entrainer une IA conduit à une chute de fps (et de perf dans les calculs d'à coté). Je ne sais pas bien si c'est dû au throttle du GPU ou bien au scheduling du GPU mais c'est pas toujours cool pour jouer à des jeux en même temps que tu attends que ton solveur converge. L'idée d'avoir 2 GPU est de pouvoir laisser celui de Nvidia faire les calculs (et parce que CUDA aussi) et de jouer sur AMD. Et quand je ne planifie pas de jouer à des gros jeux, je peux aussi faire tourner un peu d'OpenCL sur l'AMD (surtout plus pour le traitement de mes images en radio). Merci de ta proposition. Pour le wc (mais encore à définir), je pars sur sur de 2 radiateurs de 360 mm donc les ventilos seront pilotés l'un par la CM et l'autre par une sonde de température relié à une arduino.
  13. J'ai recherché sur le Web d'une façon plus large. J'ai trouvé ceci. En résumé, oui ça émet des EM mais elles sont souvent à larges bandes et les composants/dispositifs savent gérer ça. Je passe sous silence la question morale.
  14. Pas tant que ça. Lors de mon dernier post-doc, j'ai fait cohabité sans soucis une Radeon VIII avec une Geforce 1680 sans vm, ni docker. La partie problématique était, de mémoire, nvidia qui se comportait comme Windows (i.e., comme s'il n'avait que lui qui existait). Mais avec OpenCL et un petit wrapper réalisé par mes soins, aucun problème. D'ailleurs, à l'heure actuelle, la machine tourne toujours et les doctorants et post-docs qui l'utilisent en sont ravis. 🤣 Donc la psychose 5G est finalement une sorte de psychose primitive. Néanmoins oui les PC émettent des EM (comme des acoustiques d'ailleurs. J'ai remarqué que l'utilisation de calculs cryptos produisait une émission acoustique assez caractéristique). Maintenant de là à griller le cerveau d'un humain... Cependant, ça ne change rien avec la durée. Si ton environnement est contient beaucoup d'EM susceptible d'interagir (d'ailleurs, la Terre baigne en permanence dans un bruit EM de basses fréquences), alors oui le recours à un blindage peut-être nécessaire. Mais là encore, le seul cas connu de mon expérience perso était dans un labo qui s'amusait à balancer des arcs électriques sur plusieurs mètres et de plusieurs dizaines d'ampère. La pièce en elle-même était une cage de Faraday (une vrai) et les machines étaient également mise dans une cage avec tout une armada de filtres. Donc clairement, c'est pas chez toi que tu vas avoir ça. A la limite, je me méfierai plus de la radioactivité naturelle (ou de défauts des puces [qui serait non détectés et non corrigés]) pour produire des bits flips plutôt qu'un environnement EM "classique". Et durant un orage, j'ai surtout plus observé que c'est la tension électrique du secteur qui fait des choses pas cool que l'EMP associé à l'arc en retour. Tout comme moi. De toute façon, une cage de Faraday parfaite ne laisse rien passer. Au mieux, elle peut atténuer. Et une cage de Faraday, c'est très contraignant. Clairement les boîtiers, s'ils jouent ce rôle, le font faiblement ou pas du tout. D'ailleurs, j'ai rien trouvé de publier à ce sujet dans la littérature scientifique. Ce passage m'a fait également pensé à ce que je nomme (certainement de manière incorrecte), les "boîtiers baie" qu'on trouve dans des datacenters. Pour le coup, c'est une sorte de compromis entre les deux.
×
×
  • Créer...