Je sais pas trop ce que ça donne à l'heure actuelle, mais pour avoir testé y'a quelques années sur un laptop avec deux cartes graphiques (un IGP et une carte dédiée), la différence d'autonomie était assez énorme.
Ce qui faisait la plus grosse différence, c'était la possibilité d'éteindre complètement la carte graphique dédiée pour utiliser seulement l'IGP. Alors que sous Windows même si elle n'était pas utilisée, la CG dédiée continuait quand même à consommer. Rien qu'avec ça plus quelques paramétrages avec Powertop j'avais réussi à quasiment doubler l'autonomie sur Linux par rapport à Windows. Avec en gros une conso de l'ordre de facile 15-20watts sous Windows et à peine 6-10 watts sous Linux.
Bon là c'est un exemple un peu extrême avec un setup assez particulier, et en utilisant pas Ubuntu mais une distro très légère. Et si on fait le test entre un Windows 10 et Ubuntu "stock", la différence doit être assez minime. Par contre avec quelques tweaks, je suis quasi sûr que à configuration égale y'a moyen d'obtenir de meilleurs résultats sous Linux.
disclaimer 1: n'ayant pas de licence windobe, les tests de cette partie seront consideres avec la pire consommation possible (cet OS etant inexistant sur la machine, il ne boote pas et s'arrete donc immediatement).
disclaimer 2: La machine de test etant un PC fixe sans batterie, les tests s'effectueront sur alimentation secteur.
Considerant les conditions de tests precedents, je peux donc affirmer que ma machine a un temps d'utilisation sous windows a 0.0s. Sous linux, ce temps tend vers l'infini (sous reserve de panne materielle).
voila, c'etait ma version du match windows/linux
Salut les Linuxiens !
Je sollicite vos avis avant l'achat d'un adaptateur RJ45 vers USB-C/Thunderbolt 3 pour le Dell XPS 13 de mon père. Je sais que je suis dans la catégorie Software du forum, mais sa demande est de trouver un adaptateur qui soit "natif Linux" (la machine fait tourner Ubuntu). Apparemment, le seul qu'il ait trouvé sur Materiel.net avec cette mention est indiquée à 199 €, ce qui me paraît un tantinet excessif… Quelqu'un a déjà utilisé ce type d'adaptateur ?
Je ne suis pas sûr qu'il y ait besoin que ça soit marqué que ça fonctionne en "natif linux"...
J'utilise ceux là, ça marche natif sur Linux (Ubuntu) chez moi. D'ailleurs mieux que sur Windows puisque comme je le disais dans mon dernier post sur le topic Windows cette daube de Microsoft me désinstalle mes drivers au pif des fois.
https://www.raidsonic.de/products/ad...r/index_en.php
40 boules environ selon le modèle
(version usb c est listée au dessus: https://www.raidsonic.de/products/ad..._objectID=5901)
Existe-t-il un utilitaire libre ( sous Linux ou Windows ) qui examine les noms de tous les fichiers et dossiers d'une partition pour détecter ceux dont le nom est trop long ,svp ?
J'en aurais besoin car j'ai de tels fichiers ou dossiers sous Windows ,et Windows refuse donc de les copier sur un support de sauvegarde .
Sous GNU/Linux, bien sûr. Il doit y avoir cinq cents manières de faire ça en enchaînant quelques outils en ligne de commande.
D’ailleurs, si la sauvegarde s’effectuait aussi en ligne de commande dans Linux, il suffirait de rediriger la sortie d’erreur sur un fichier pour avoir la liste de ceux qui n’ont pas pu être copiés.
Sous Windows, c’est beaucoup plus simple : il suffit de demander à un programmeur Windows de passer un mois à développer un logiciel spécifique avec des boutons à cliquer.
Rho les mecs, bon torché à l'arrache mais ça devrait faire le taff
EDIT:
- - - Mise à jour - - -Code:find . | sed -E -e 's/[[:blank:]]+/_/g' | awk '{ print $1 " ----> " length}' | awk '$3>100'
Tu remplaces 100 par la taille que tu cherches, et t'executes ça dans le dossier que tu veux analyser, à la racine (/) du système si tu veux analyser tout le système (ça prendra un peu de temps selon le nombre total de fichiers)
Sur cette MERDE de Windows, je crois que la taille limite (hahaha) pour un chemin de fichier c'est +- 250 (HAHAHA)
Dernière modification par Anonyme20240202 ; 14/08/2020 à 18h33.
T'es sûr qu'avec un nom de dossier avec des espaces ça sera $3 ?
Mets un $NF plutôt je pense.
Version 2.0 qui supporte même les espaces (berk), ou autres charactères invisibles, dans les noms de fichier
Ouais je sais pas, y'a p'têt moyen avec NF, je suis nul en awkCode:find . | sed -E -e 's/[[:blank:]]+/_/g' | awk '{ print $1 " ----> " length}' | awk '$3>100'
- - - Mise à jour - - -
Sinon y'a des outils de copie qui gèrent ça sous Windows je crois, super copier ou je sais plus quoi
Tu peux faire ton sed directement dans awk pour info
devrait faire l'affaireCode:find . | awk 'length($0)>100'
Ouais on dirait bien que awk compte les whitespaces en prenant la string entière (null termination j'imagine) qu'il obtient de find, propre
Sinon, find a une option -exec.
une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
Canard lecture
Et comment ça se passe avec des caractères en UTF-8 ou en UTF-16 ? Ils comptent pour un ou pour plus ?
Bravo quand même pour les propositions, j’ai oublié mon sed et je n’ai jamais su mon awk, donc je n’ai rien proposé, si j’avais dû j’aurais fait ça par étapes dans vim avec des sorts aux wc.
Nan, pour reconnaitre la fin d'une string généralement t'utilises le charactère null (https://en.wikipedia.org/wiki/Null-terminated_string) '\0'
Mais je crois que awk utilise \n effectivement, j'ai réussi à casser ton script (et le mien) en créant un fichier avec un retour à la ligne dans le nom (oui c'est possible)
- - - Mise à jour - - -
'Fin bref, c'était pour la blague, de mémoire les noms de fichiers c'est pas dingue sur Linux et faut tout simplement s'imposer la rigueur de ne pas faire n'importe quoi (d'où le fameux adage: "Never parse ls output", https://unix.stackexchange.com/quest...-to-do-instead)Code:/tmp/find_test]$ touch "weird > file" /tmp/find_test]$ ls weird?file /tmp/find_test]$ find . | awk '{print $0}' . ./weird file
marche presque, mais je ne sais pas rendre expr silencieux donc ça spam des 0 et des 1.Code:find . -exec expr '(' length '+' '{}' ')' '>' 100 ';' -print
PS: Je suis bête (mais je ne suis pas tout seul)
Un seul processus, ça va maintenant ?Code:find . -regextype egrep -regex '.{100,}'
Là on parle !
C'est propre, je valide
Awk je l'utilise tous les jours maintenant, ça a eu du mal a rentrer mais jpourrais plus m'en passer (à moins de passer exclusivement à perl).
Je l'ai déjà posté il y a quelques pages je pense mais ca ne fait pas de mal
https://cmdchallenge.com/
Dernière modification par Nattefrost ; 15/08/2020 à 11h45.
Merci , je comptais utiliser ce conseil , mais je rencontre une difficulté avec le terminal .
Ma partition NTFS à analyser se trouve pourtant sur le même disque que mon install Linux , mais quand j'indique le chemin vers cette partition dans le terminal ( avec la commande cd /media/nom utilisateur/nom partiton NTFS ) , j'obtiens la réponse : -bash: cd: trop d'arguments
Parce que tu n'utilises pas la tabulation et que tu tapes un nom avec des espaces. Donc il considère que tu envoies plusieurs arguments.
Pour la commande, envoie plutôt la mienne ou celle de Cwningen :
Code:find . -regextype egrep -regex '.{100,}'
Le mieux pour gérer les espaces c'est quand même "find ... -print0" puis les options "-z" ou "-0" présentes dans la plupart des autres outils habituels (sort -z, xargs -0, etc...).
Edit: Bon, pas awk évidemment, quels nuls. Il faut faire un truc genre "awk -vRS=$"\0" ..."
"Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."
A priori Wobak a raison, peut être les espaces qui posent problème, utilise tab pour compléter le chemin.
Ou sinon pour escape les espaces dans le terminal utilise des doubles quotes:
Code:cd "mon chemin/compliqué/users/windows avec des espace/etc"