Sida 1 av 2
Mjukvaru raid5 i Linux
Postat: 14 december 2007, 21:01:29
av psynoise
Då jag har haft problem att återskapa data från min
raidkrash, funderar jag på att köra mjukvaru raid5 med ett känt alternativ istället.
Jag undrar vilka olika program som är vanliga och stabila för linux, vad kör ni?
Sen undrar jag om man tjänar något på att ha flera arrayer istället för en stor med partitioner i?
Postat: 14 december 2007, 22:39:52
av speakman
Flera RAID1 + LVM?
Postat: 14 december 2007, 22:56:11
av psynoise
Vill gärna köra raid5 då jag behöver mina gigabyte, varför är raid1 att föredra, förutom att det sannolikt är lite säkrare om mer en en hårddisk skulle gå sönder (använder 4 stycken)?
Postat: 14 december 2007, 23:16:55
av speakman
Vilken förlust skulle du ha på 2xRAID1? RAID5 stöder väl bara 3 diskar + spare va?
Jag har aldrig kört annat än 1xRAID1 för företagsservrar, och privatpersoner vill gärna ha stripat, och då blir det LVM2 direkt.
Postat: 14 december 2007, 23:18:56
av limpan4all
RAID 5 stödjer valfritt antal diskar, dock minst tre.
Postat: 14 december 2007, 23:22:21
av psynoise
Har kollat runt lite och md drivern värkar vara vanlig, dock dök det upp en sak som jag är helt främmande för
EVMS. Vad har man för nytta att köra med EVMS eller bara md?
Postat: 14 december 2007, 23:52:34
av speakman
Det har jag varit frågande också. Har det avinstallerat i Ubuntu mer märker ingen skillnad. (det kommer default där)
Postat: 15 december 2007, 00:46:33
av sodjan
> RAID5 stöder väl bara 3 diskar + spare va?
Avser det någon specifik implementering av RAID-5 ?
Eller RAID-5 i största allmänhet ?
Postat: 15 december 2007, 00:54:22
av speakman
Tänkte allmänt, men svar finns ju redan.
Postat: 15 december 2007, 17:43:13
av psynoise
Så här blir det: Allt skapat i evmsgui, först två stycken raid1 regioner för att kunna ladda operativsystem enkelt, sedan en stor raid5 region för /home. Vanligtvis hade jag kört med en partition för /boot men nu blir det en stor för hela roten utom home.
Postat: 15 december 2007, 22:43:28
av speakman
Varför inte köra RAID5 över alla diskar, och sedan gjort en enda stor LVM-volym och slutligen delat in den i partitioner?
Då får man säkerheten av RAID och flexibiliteten av LVM.
Postat: 15 december 2007, 23:24:12
av psynoise
Är lite splittrad just nu, har just installerad ubuntu gutsy genom chroot på en evms volym. Doch har ubuntu tagit bort stödet för evms på gutsy versionen.
Men kan verkligen grub eller lilo boota md raid5 med LVM på?
Postat: 15 december 2007, 23:25:38
av speakman
Inga problem! Se dock till att göra en liten separat /boot-partition utanför LVM:en så kan du köra GRUB! Annars får du nöja dig med LILO som iof duger gott å väl den också.
Postat: 16 december 2007, 19:08:26
av psynoise
Håller på att prova precis som du sa, men nu dök det upp problem i ubuntu 7.10 som inte fanns i 6.10:
Kod: Markera allt
[ 35.731293] HPT374: IDE controller at PCI slot 0000:01:07.0
[ 35.731503] ACPI: PCI Interrupt Link [APC4] enabled at IRQ 19
[ 35.731512] ACPI: PCI Interrupt 0000:01:07.0[A] -> Link [APC4] -> GSI 19 (level, high) -> IRQ 21
[ 35.731525] HPT374: chipset revision 7
[ 35.731541] HPT374: DPLL base: 48 MHz, f_CNT: 145, assuming 33 MHz PCI
[ 35.736662] HPT374: using 50 MHz DPLL clock
[ 35.736769] HPT374: 100% native mode on irq 21
[ 35.736784] ide2: BM-DMA at 0xa400-0xa407, BIOS settings: hde:DMA, hdf:pio
[ 35.736811] ide3: BM-DMA at 0xa408-0xa40f, BIOS settings: hdg:DMA, hdh:pio
[ 35.736837] ACPI: PCI Interrupt 0000:01:07.1[A] -> Link [APC4] -> GSI 19 (level, high) -> IRQ 21
[ 35.736855] HPT374: no clock data saved by BIOS
[ 35.864033] HPT374: DPLL base: 48 MHz, f_CNT: 122, assuming 33 MHz PCI
[ 35.869136] HPT374: using 50 MHz DPLL clock
[ 35.869245] HPT374: too many IDE interfaces, no room in table
[ 35.869249] HPT374: too many IDE interfaces, no room in table
[ 35.869252] HPT374: neither IDE port enabled (BIOS)
Det slutar med att jag får bara upp /dev/hde2 och hdg2 och då fattas /dev/hdi2 och hdk2 som behövs för raid5 arryen.
En sak till som jag undrar över är hur det är med att återuppbygga en array som har gått sönder när jag kör både lvm och md?
Postat: 17 december 2007, 09:18:34
av speakman
Märkligt fel. Sätt Google på saken.
Vad menar du med trasig array? Att minst 2 diskar är trasiga så systemet inte startar?
Oavsett ser jag ingen skillnad mot om du inte kör LVM. Vad skulle det ha för betydelse?
MD sköts ju på en helt annan nivå.
Har dock själv aldrig hamnat i den sitsen så jag vet med egen erfarenhet. Men jag ser inga särskilda problem med det.