Non y a plus rien dans data, comme cette semaine quand le raid était down. C'est comme ça que j'ai vu que ça avait merdé. J'allume le nas tout content de moi, j'ai tout remonté, la vie est belle, je vais chercher de la musique depuis le pc sous windows, j'avais allumé la console pour vérifier que le dlna marchait et rien, je vérifie sur le nas: c'est encore ce putain de raid de merde qui est niqué. Sans déconner j'en peux plus.
Envoyé par file:///etc/mdadm/mdadm.conf
On dirait.
Et est ce que les modifs apportées avant le crash en sont la cause?
A partir de là en fait:
http://forum.canardpc.com/showthread...&postcount=226
Donc suppression dedans mon fichier fstabCode:/dev/fd0 /media/floppy0 auto rw,user,noauto,exec,utf8 0 0
modification de
Ajout deCode:UUID=8901e047-76cf-47e7-b6dd-3892696de835 / ext4 errors=remount-ro,noatime,nodiratime 0 1 UUID=f14a11f4-7287-46e6-b5b0-b2afd8e21396 /boot ext2 defaults,noatime,nodiratime 0 2
Code:tmpfs /tmp tmpfs defaults 0 0 tmpfs /var/tmp tmpfs defaults 0 0
Mon fichier /etc/fstab actuel donne ça
Code:# /etc/fstab: static file system information. # # Use 'blkid -o value -s UUID' to print the universally unique identifier # for a device; this may be used with UUID= as a more robust way to name # devices that works even if disks are added and removed. See fstab(5). # # <file system> <mount point> <type> <options> <dump> <pass> proc /proc proc nodev,noexec,nosuid 0 0 # / was on /dev/sda6 during installation UUID=8901e047-76cf-47e7-b6dd-3892696de835 / ext4 errors=remount-ro,noatime,nodiratime 0 1 # /boot was on /dev/sda1 during installation UUID=f14a11f4-7287-46e6-b5b0-b2afd8e21396 /boot ext2 defaults,noatime,nodiratime 0 2 # swap was on /dev/sda5 during installation UUID=35067d1d-8daf-4182-a71c-be91c2cc515b none swap sw 0 0 tmpfs /tmp tmpfs defaults 0 0 tmpfs /var/tmp tmpfs defaults 0 0
---------- Post ajouté à 15h59 ----------
Bon voilà le retour de
sudo ls -l /dev/md* (j'avais copié le fstab juste avant)
Code:brw-rw---- 1 root disk 254, 0 2010-05-07 15:27 /dev/md_d0 lrwxrwxrwx 1 root root 7 2010-05-07 15:27 /dev/md_d0p1 -> md/d0p1 lrwxrwxrwx 1 root root 7 2010-05-07 15:27 /dev/md_d0p2 -> md/d0p2 lrwxrwxrwx 1 root root 7 2010-05-07 15:27 /dev/md_d0p3 -> md/d0p3 lrwxrwxrwx 1 root root 7 2010-05-07 15:27 /dev/md_d0p4 -> md/d0p4 /dev/md: total 0 brw------- 1 root root 254, 0 2010-05-07 15:27 d0 brw------- 1 root root 254, 1 2010-05-07 15:27 d0p1 brw------- 1 root root 254, 2 2010-05-07 15:27 d0p2 brw------- 1 root root 254, 3 2010-05-07 15:27 d0p3 brw------- 1 root root 254, 4 2010-05-07 15:27 d0p4
Ouaip ou du genre /dev/md_d0 ou /dev/md_d1 etc.
On va reprendre tranquillement, il suffit de retrouver le nom du nouveau device et de tout bien définir.
D'ou le la demande de :
bingoCode:sudo ls -l /dev/md*
Fait un c/c de :
Code:sudo mdadm --detail /dev/md_d0
Il ne s'est rien passé, enfin je n'ai rien vu.
J'ai refait un o ls -l /dev/md* qui a renvoyé la même chose pile poil qu'avant.
cat /proc/mdstat me donne ça:
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md_d0 : inactive sda1[0](S)
1953511936 blocks
unused devices: <none>
Oui donc voilà je sais pas.
Et mon bidule utilitaire machin n'a pas évolué non plus (coupé et relancé)
-> on arrête l'Array md_d0
-> on la recrée à la main. Si ça déconne encore on peut ne spécifier qu'un disque(raid1 power) .Code:sudo mdadm --manage -v /dev/md_d0 --stop
-> le "-v" sert à avoir des infos supplémentaires en cas de problème.
Et ferme le machin graphique.Code:sudo mdadm --assemble -v /dev/md0 /dev/disqueSM /dev/disqueWD
Dernière modification par olih ; 07/05/2010 à 16h43.
Bon on résume. Hier j'en avais plein le c..dos le dos. Donc j'ai tout arrêté à la barbare en débranchant la prise, avant d'essayer de suivre ta dernière réponse.
J'ai rallumé ce matin je lance mon truc de daube graphique que tout le monde déteste (mais moi je l'aime bien, ça fait un truc un peu familier que je comprends) et surprise
Un petit sudo mount /dev/md_d0 /data et mes données sont revenues, je les copie actuellement sur mes pc fixes, et d'ici demain le nas va sans doute se retrouver sous windows sans raid.
Ça serait rudement dommage.
Tu as vraiment l'impression d'avoir cauchemarder, si on y regarde de plus prêt pour un mec qui est béotien en linux. Monter une machine avec une config un peut atypique (raid toussa), une semaine pour plonger dan sle grand bain c'est vraiment pas mal.
Si tu lâches au moment ou tu obtient un truc ...
Justement là je finis de copier mes données et je fais un truc: j'éteins le NAS pour le ranger dans son emplacement normal(et pas posé en vrac). Si les données et le raid restent en place (ce dont je doute puisque résumons clairement: ça part en couille en cas de reboot et personne ne comprend pourquoi ça se barre et comment ça revient) j'y réfléchirai peut être.
Parce que un "serveur de données" (je crois que ça s'appelle comme ça, mais je suis pas sûr) dont les données sont là quand elles veulent, c'est un peu comme une clim qui fait que du chaud, tu te demandes si t'as fait un bon investissement.
Pourquoi on sait pas trop non mais on t'a déjà dit. Il essaye probablement de monter le raid sur un nom différent.
Je pari qu'il essaye de monter /dev/md0 et pas /dev/md_d0 ou un truc dans ce goût là.
J'ai pas suivit toute la création du NAS, mais si c'est juste qu'il faille faire un mount sur le nom correct, c'est pas bien méchant.
L'important, c'est surtout le "sans RAID". En fait, tu peux même déconnecter le disque dur WD, à moins que tu aimes quand ton BIOS fait "BzBzBzBzBzBzBzBzBzBz"...
You want to grab a politician by the scruff of the neck and drag him a quarter of a million miles out and say, "Look at that, you son of a bitch." — Edgar Mitchell, Apollo 14 astronaut
Ben le problème n'a pas l'air d'être le "montage" c'est juste que le raid ne fonctionne plus, après quand il fonctionne j'ai juste à le monter.
Oui mais quand je le déconnecte je peux pas accéder à l'autre disque non plus. Donc concrètement de mon point de vue ça n'apporte rien puisque ça va pas mieux. (point de vue positif: ça va pas plus mal non plus)
Ton mdadm.conf est vide, pour moi c'est normal que le raid n'est pas activé au boot, en tout cas il ne l'était pas non plus pour mon raid 5.
Dans mdadm.conf, tu mets une ligne du style:
Et à priori il devrait te l'activer automatiquement.Code:ARRAY /dev/md_d0 devices=/dev/sda1,/dev/sdb1
il faudrait aussi que tu vérifies que le script d'init pour démarrer les raid soit bien actif, mais j'ai pas d'ubuntu sous la main, et je sais pas comment vérifier ça sur une ubuntu..
Bon ça y est mes données sont sauvegardées, je m'apprête à redémarrer, contempler le non fonctionnement de la chose et tendre le doigt pour crier "haha" tel un nelson des grands jours devant ce qui n'est qu'une machine: c'est grave docteur?
sphax.wd=> j'y connais rien mais je me disais qu'il devait y avoir un truc comme ça, du genre linux--mon-ami-le-nazi oublie de lancer le raid, mais une question me taraude: dans ce cas là, pourquoi une fois de temps en temps ça marche?
C'est une bonne question. En fait je sais pas du tout comment ubuntu marche à ce niveau.
Nas arrêté, démarrage du NAS: ça remarche plus.
QUand j'aurai le temps je vais tout réinstaller je crois que ça sera peut être ça le plus simple et rapide. Maintenant je m'en tape j'ai tout sauvegardé.
Je crois qu'il m'a mélangé les lecteurs, j'ai
sda:le WD
sdb: la Compact Flash
sdc; le samsung
ça vient peut être de ça, ou pas en fait.
Parce que j'avais rajouté ça ARRAY /dev/md_d0 devices=/dev/sda1,/dev/sdb1 en regardant que les lettres de lecteur soient les bonnes et là ça colle plus.
Attention, certains BIOS, quand tu changes l'ordre du boot, par exemple, font que ça change l'ordre des devices.
Piège con mais je me suis déjà fait baiser.
Sleeping all day, sitting up all night
Poncing fags that's all right
We're on the dole and we're proud of it
We're ready for 5 More Years
J'ai pas changé l'ordre du boot depuis l'installation.
Donc mise à jour: j'ai encore arrêté le nas, et ensuite rallumé: l'ordre des périphériques est le suivant:
sda: WD
sdb: samsung
sdc; Compact Flash
Donc un petit sudo mount /dev/md_d0 /data et mes données étaient accessibles (le raid était bien reconnu)
Je crois que j'ai trouvé un truc là, ça doit être les lettres des disques qui changeaient qui foutaient le caca.
Google "UUID hard drive linux" et ça pourrait t'aider à robustiser ton install si c'est ton bios qui change régulièrement l'ordre des drives.
Sleeping all day, sitting up all night
Poncing fags that's all right
We're on the dole and we're proud of it
We're ready for 5 More Years
J'ai googlé mais j'ai pas encore trouvé de réponse que je comprenne, je verrai ça plus tard. En attendant la solution "Try again" devrait marcher.
Sleeping all day, sitting up all night
Poncing fags that's all right
We're on the dole and we're proud of it
We're ready for 5 More Years
Je sens que le temps que je comprenne et réussisse à appliquer ça correctement sera supérieur à une réinstallation complète. Si on rajoute à ça le facteur "prise de tête", je crois que le choix est fait...encore faut-il que ça ne se reproduise pas sur une nouvelle install :fear: