導航:首頁 > 編程系統 > linuxraid0配置

linuxraid0配置

發布時間:2023-01-07 20:46:00

linux_118_raid10創建使用

1.搭建raid10,就是raid1加上raid0,准備四塊磁碟,用於創建raid10,配置vmware虛擬機,創建四個虛擬硬碟

修改主機名
hostnamectl set-hostname
exit之後重新登錄

2.檢查磁碟信息
ls /dev/sd* 或 ls /dev/sd[a-z]
fdisk -l /dev/sd*

3.學習mdam命令,用於建設,管理和監控RAID技術的命令
yum install mdadm -y
使用如下命令創建raid 10
mdadm -Cv /dev/md0 -a yes -n 4 -l 10 /dev/sdb /dev/sdc /dev/sdd /dev/sde

-C 表示創建RAID陣列卡
-v 顯示創建過程
/dev/md0 指定raid陣列的名字
-a yes 自動創建陣列設備文件
-n 4 參數表示用4塊盤部署陣列
-l 10 代表指定創建raid 10級別
最後跟著四塊磁碟設備名

ls -l /dev/md0

4.針對磁碟陣列設備,進行文件系統格式化,將/dev/md0格式化為xfs文件系統
mkfs.xfs /dev/md0

5.針對分區進行文件夾掛載,使用磁碟分區
新建一個文件夾,用於和陣列分區進行掛載
mkdir /yuraid

6.使用mount命令進行掛載
mount 設備名 掛載點
mount /dev/md0 /yuraid

7.檢查掛載情況
mount -l | grep md0

8.還可以使用df命令,檢查掛載空間的使用情況
df -hT | grep md0

9.檢查raid10的詳細信息
mdadm -D /dev/md0
注意:因為備份相同的數據,所以只有一半的內存容量

10.可以向磁碟陣列中寫入數據,檢查使用空間
使用top命令可以檢測伺服器的動態信息

11.取消掛載,查看文件夾情況
# 取消掛載之後,無法使用磁碟陣列分區的空間,還得重新掛載
umount /dev/md0

12.把磁碟陣列的分區設備,加入到開機掛載文件中,每次重啟後,自動掛載使用了
cat /etc/fstab
vim /etc/fstab
/dev/md0 /yuraid xfs defaults 0 0
tail -1 /etc/fstab # 進行查看

❷ Linux伺服器怎樣搭建軟體RAID磁碟,來提高服務速度

RAID0,需要2個硬碟,磁碟讀加速,磁碟速度最快,容量不損失。
RAID1,需要2個硬碟,磁碟冗餘備份,在損壞一個盤的情況下數據還在,壞兩個盤可能性就比較低了,但是兩個盤只能使用到一個盤的容量,即損失1個盤的容量,損失1/2。
RAID5,需要3個硬碟,磁碟加速和備份,在損壞一個盤的情況下還可以正常工作,損失1個盤的容量,即1/3。

具體你可以看國產伺服器品牌正睿的官方網站上看看就知道了。
http://www.zrway.com/server/

❸ raid0怎麼組裝,以及在組裝raid0後,怎麼裝linux系統啊。求高手指教啊

Raid0就是把兩塊盤並成一塊,並且是沒有贅餘存儲。組raid以後,就象平常安裝系統一樣安裝Linux就是,如果無法識別硬碟,則要用軟體驅載入Raid驅動,然後再安裝,一般廠商都會提供驅動的。

❹ 怎麼配置RAID0

1、Intel晶元組和AMD晶元組都可以基本支持各種磁碟陣列模式的構建,因此設置RAID0磁碟陣列非常簡單。首先准備兩個硬碟驅動器,同時,首先將硬碟驅動器與主板上的操作系統拔下,以免替換設置,可惜破壞了以前的硬碟驅動器數據。

❺ linux raid0怎麼做

fdisk 分2個區(2或2的倍數給)
fdisk /dev/sda 分區
mdadm -C /dev/md0 -l 0 -n 2 -x 1 /dev/sda{5,6,7}
意思就是創意一個raid名字叫md0 -l 級別 0 磁碟數量2 備用盤數量1 使用的磁碟 sda{5,6,7}

根據實際小改動就可以

❻ z270怎麼設置raid0

1、首先開機,進入啟動屏幕後按下「delete」進入bios,找到「存儲設置」。
2、然後按下enter進入該選項,在配置部分打開raid選項,隨後按F10進行保存。
3、系統重啟後按下ctrl+i進入raid界面。
4、在出現的四個選項中點擊1選項,隨後按下tab或者enter進入下一區域。
5、下面為raid布局選擇字元串可選值。可選值范圍從4kb~128kb。
不同模式對應不同范圍:raid0–128kb,raid10–64kb和raid5–64kb。
在容量區域中選擇卷的容量,初始最小值是被替換磁碟的最大容量,全部展開後,按Y保存。
6、設置完raid0的目標信息和內容後按esc退出界面。
7、在引導屏幕後按下delete進入bios設置,繼續找到「存儲設置」。
8、之後按下enter進入「StorageConfiguratlon」選項,在SATAPort1-Port4、SATAPort5-Port6上打開RAID,
最後按F10保存並重啟。
9、重啟後按下ctrl+f進入raid界面。
10、在上下四個選項中選擇第二個選項進入。
11、進入2選項後按下ctrl+c進行創建。
12、隨後按ctrl+y進行保存。
13、最後再進行一次確認,隨後重新啟動計算機即可。
以上就是raid0怎麼配置方法,配置之前要准備好兩個硬碟。

❼ 如何在linux下做軟raid實現方法

磁碟陣列軟RAID實例.
前言:, 容量倍增,加速。 raid1, 安全鏡像備份。 raid5, 奇偶數據校驗保證安全,磁碟利用率(n-1)。
****************************************
1. 准備硬碟分區。
****************************************
raid5 至少需要3快硬碟,我手上只有一塊閑置硬碟,就拿它練手。
在一塊硬碟上實現raid 是沒有意義的,這里僅是為了實驗,知道其過程。
分區如下:
主分區 /sdb1, 擴展分區/sdb10 隨便干別的事情。
擴展分區/sdb{5..9} 做raid5
----------------------------------------
[root@hjj ~]# fdisk -l /dev/sdb
----------------------------------------

Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x86ea33f5

Device Boot Start End Blocks Id System
/dev/sdb1 1 3241 26033301 83 Linux
/dev/sdb2 3242 19457 130255020 5 Extended
/dev/sdb5 3242 6482 26033301 fd Linux raid autodetect
/dev/sdb6 6483 9723 26033301 fd Linux raid autodetect
/dev/sdb7 9724 12964 26033301 fd Linux raid autodetect
/dev/sdb8 12965 16205 26033301 fd Linux raid autodetect
/dev/sdb9 16206 19446 26033301 fd Linux raid autodetect
/dev/sdb10 19447 19457 88326 83 Linux

----------------------------------------
[root@hjj ~]# partprobe /dev/sdb
----------------------------------------
重新檢測分區要通過, 可能需要重啟系統。

****************************************
2. 創建raid5 設備/dev/md0
****************************************
raid 設備文件名,習慣上用md0, md1....等命名
注意: 創建需要內核支持, 選中相應的raid 選項,重編譯內核,否則該命令不能通過,錯誤為invalid parameter
2.1 創建
--------------------------------------------------------------------------------
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}
--------------------------------------------------------------------------------
mdadm: Defaulting to version 1.2 metadata
解釋一下:
-C ---> create
-a ---> autodetected
-l ---> level raid5
-n ---> raid devices 4 (使用)
-x ---> spare devices 1(備用)

給一個參考多硬碟命令
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd[bcd]1

2.2: 設備名稱查詢
[root@hjj ~]# ll /dev/md* -d
drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md
brw-rw---- 1 root disk 9, 0 Nov 7 01:52 /dev/md0
2.3: 設備信息查詢
----------------------------------------
[root@hjj ~]# mdadm --detail /dev/md0
----------------------------------------
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 7 01:14:01 2013
Raid Level : raid5
Array Size : 78096384 (74.48 GiB 79.97 GB)
Used Dev Size : 26032128 (24.83 GiB 26.66 GB)
Raid Devices : 4
Total Devices : 5
Persistence : Superblock is persistent

Update Time : Thu Nov 7 01:43:21 2013
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 5
Failed Devices : 0
Spare Devices : 2

Layout : left-symmetric
Chunk Size : 512K

Rebuild Status : 63% complete

Name : hjj.localdomain:0 (local to host hjj.localdomain)
UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5
Events : 25

Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
5 8 24 3 spare rebuilding /dev/sdb8

4 8 25 - spare /dev/sdb9

****************************************
3: 格式化raid 設備(磁碟)
[root@hjj ~]# mkfs -t ext4 /dev/md0
****************************************
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=384 blocks
4882432 inodes, 19524096 blocks
976204 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
596 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424

Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
done

This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.

****************************************
4. 掛載及使用raid 磁碟
****************************************
[root@hjj ~]# mount /dev/md0 /mnt
[root@hjj ~]# cd /mnt
[root@hjj /mnt]# ls
lost+found

使用raid 設備(虛擬盤)
[root@hjj /mnt]# echo "haha" > abc.txt
[root@hjj /mnt]# cat abc.txt
haha
[root@hjj ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/VolGroup-lv_root
51475068 40659416 8177828 84% /
tmpfs 1015868 224 1015644 1% /dev/shm
/dev/sda1 487652 67236 390720 15% /boot
/dev/mapper/VolGroup-lv_home
97521332 10652080 81892408 12% /home
/dev/md0 76739624 53016 72765408 1% /mnt

****************************************
5. 設置開機啟動RAID
****************************************
[root@hjj ~]# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5
[root@hjj ~]# mdadm --detail --scan >/etc/mdadm.conf
經以上操作,系統重啟時自動命名為md0, 否則會是md127 等等值, 不固定。
[root@hjj ~]# vim /etc/fstab
添加:
/dev/md0 /mnt ext4 defaults 0 0

****************************************
6. 其它:停用設備,插拔磁碟
更詳細文檔: man mdadm
****************************************
停用raid 盤:
[root@hjj ~]# mdadm --stop /dev/md0
查詢
[root@hjj ~]# ll /dev/md* , 無設備

mdadm 還可模擬拔出硬碟,修復硬碟,插入硬碟
[root@hjj ~]# mdadm /dev/md0 --remove /dev/sdb5
驗證:
[root@hjj ~]# mdadm --zero-superblock --force /dev/md0
[root@hjj ~]# mdadm /dev/md0 --add /dev/sdb5
驗證:

驗證方法:

[root@hjj ~]# mdadm --detail /dev/md0

刪除該raid 設備, 完整的操作過程如下示例。 比較規范,系統無錯誤。

當然,不按規范刪除也可以。反正你也不要設備上的所有數據了。

mdadm /dev/md0 --fail /dev/sdb5 --remove /dev/sdb5
mdadm /dev/md0 --fail /dev/sdb6 --remove /dev/sdb6
mdadm /dev/md0 --fail /dev/sdb7 --remove /dev/sdb7
mdadm /dev/md0 --fail /dev/sdb8 --remove /dev/sdb8
mdadm /dev/md0 --fail /dev/sdb9 --remove /dev/sdb9

mdadm --remove /dev/md0
mdadm --stop /dev/md0

mdadm --misc --zero-superblock /dev/sdb5
mdadm --misc --zero-superblock /dev/sdb6
mdadm --misc --zero-superblock /dev/sdb7
mdadm --misc --zero-superblock /dev/sdb8
mdadm --misc --zero-superblock /dev/sdb9

即: 先刪除RAID中的所有設備,然後停止,刪除該RAID即可
為了防止系統啟動時候啟動raid, 應檢查,修改相應的配置。
例如mdadm.conf, fstab 等

❽ 戴爾R210安裝linux操作系統時,Raid0陣列如何設置

是不是RAID卡不一樣吧,用戴爾的Opnemange光碟安裝,那個操作界面人性化點

❾ raid0 在linux上怎麼安裝

同復 Windows ,硬體的主板或制者RAID卡設置,之後裝系統時載入驅動(有的需要有的不需要)。
如果是軟體的,那麼需要 Linux 系統支持,建議安裝時直接設置 LVM (邏輯卷管理,可以設置軟 RAID)。

❿ [Linux實用命令]-9-磁碟陣列(RAID)實例詳解

這篇文章介紹幾種常用的磁碟陣列技術(Raid0、Raid1、Raid4、Raid5、Raid10、Raid01),演示如何在CentOS7環境下使用mdadm命令去創建和維護磁碟陣列;RAID又稱「廉價磁碟冗餘陣列」,可以使用硬體和軟體兩種方式來實現,硬體RAID可以參考購買硬體時附帶的參考手冊,設置方法與軟體RAID有差異;現如今軟體RAID大多用作研究和熟悉RAID的工作方式。

Raid有"廉價磁碟冗餘陣列"的意思,就是利用多塊廉價的硬碟組成磁碟組,讓數據分部儲存在這些硬碟裡面,從而達到讀取和寫入加速的目的;也可以用作數據的冗餘,當某塊硬碟損毀後,其他硬碟可以通過冗餘數據計算出損壞磁碟的數據,這樣就提高了數據儲存的安全性。

Raid0數據儲存方法如下(假設有兩塊硬碟D1、D2):

特點:數據被並行寫入每個磁碟,每個磁碟都保存了完整數據的一部分,讀取也採用並行方式,磁碟數量越多,讀取和寫入速度越快。因為沒有冗餘,一個硬碟壞掉全部數據丟失。至少兩塊硬碟才能組成Raid0陣列。

容量:所有硬碟之和。

Raid1數據儲存方法如下(假設有兩塊硬碟D1、D2):

特點:有數據冗餘,可靠性強,D1、D2被寫入相同的數據,其中D2可以作為D1的完整備份。讀取時,從兩塊硬碟上並行讀取,寫入慢,讀取快。任何一塊硬碟壞掉不會丟失數據,至少兩塊硬碟並且兩塊硬碟大小相等才能組成Raid1陣列。

容量:所有硬碟容量之和的一半(一半寫數據,一半用來做備份)。

Raid4數據儲存方法如下(假設有三塊硬碟D1、D2、D3):

特點:有數據冗餘校驗,可靠性強。其中任何一塊硬碟壞掉都不會引起數據丟失,D1丟失時,D3根據校驗和以及D2的數據進行逆運算,計算出D1的數據。但當寫入大量數據時校驗盤D3會是一個數據瓶頸,導致寫入慢。只有當兩塊磁碟同時丟失時,數據才無法恢復。至少三塊硬碟並且磁碟大小應該相等才能組成Raid4陣列(不常用)。

容量:所有硬碟容量之和減去其中一塊硬碟的容量。

Raid5數據儲存方法如下(假設有三塊硬碟D1、D2、D3):

特點:採用奇偶校驗,可靠性強,磁碟校驗和被散列到不同的磁碟裡面,增加了讀寫速率。只有當兩塊磁碟同時丟失時,數據才無法恢復,至少三塊硬碟並且硬碟大小應該相等才能組成Raid5陣列。

容量:所有硬碟容量之和減去其中一塊硬碟的容量,被減去的容量被分配到三塊硬碟的不同區域用來存放數據校驗信息。

Raid10(Raid1+Raid0)是現在比較常用的一種磁碟陣列級別,它的容錯好,讀寫數據效率較高,但經費相對也較高。
Raid10數據儲存方法如下(假設有四塊硬碟D1、D2、D3、D4):

特點:備份和並發式存取數據,可靠性強。D1、D2組成一個陣列Raid1,其中D1是數據盤,D2是備份盤;D3、D4也組成一個Raid1,其中D3是數據盤,D4是備份盤;在這個基礎上將D1、D2作為一個整體,將D3、D4也作為一個整體,這兩個整體之間再組成一個Raid0陣列。這樣不僅僅讀取數據會非常快,並發寫入的速度也會隨著磁碟的增多而變快。至少四塊硬碟並且每塊硬碟大小應該相等才能組成Raid10陣列。

容量:所有硬碟容量之和的一半(一半寫數據,一半用來備份數據)。

Raid01數據儲存方法如下(假設有四塊硬碟D1、D2、D3、D4):

特點:D1、D2組成一個陣列Raid0,D3、D4也組成一個陣列Raid0,D1、D2和D3、D4再組成一個Raid1。D1和D2作為數據盤陣列,D3和D4作為數據備份陣列,這種方式並不常用,至少四塊硬碟並且每塊硬碟大小應該相等才能組成Raid01陣列。

容量:所有硬碟容量之和的一半。

這一部分通過Linux上的mdadm命令來實現Raid10磁碟陣列。

實驗環境為一台安裝了5塊硬碟的計算機,操作系統是CentOS7,除系統所在硬碟(/dev/sda)外,其餘四塊20G的硬碟盤符分別為(/dev/sdb、/dev/sdc、/dev/sdd、/dev/sde);

主要用到的命令:mdadm;

CentOS7中mdadm默認已安裝,如果沒有安裝,可以使用yum在線安裝,如下:

到這里,實驗的准備工作完成。

新創建的磁碟陣列默認是不能開機自啟動的,需要手動創建一個配置文件,讓系統在啟動的時候自動啟動Raid(經過測試,CentOS7並不需要創建這個配置文件,如果重啟後磁碟陣列沒有隨機啟動,請使用下面的方法配置一次):

可以在創建RAID的時候指定有幾塊冗餘磁碟,當工作磁碟出現故障的時候,冗餘磁碟自動啟動,頂替出現故障的磁碟繼續工作,請看下面的實例:

下面手動將一塊磁碟標記為故障,看看冗餘盤是否起作用:

假如/dev/sdc經過測試後發現沒有問題,想要重新加入md0使用,可以在系統重啟後,使用"mdadm /dev/md0 -a /dev/sdc"命令將它重新(添加)啟用。

如果以後,想要加入一塊新硬碟到這個raid10里作為備份盤,這塊新硬碟需要和其他硬碟(或分區)保持相同的大小,然後使用下面的命令添加:

要想徹底清除RAID以及數據,請使用下面的方法:

閱讀全文

與linuxraid0配置相關的資料

熱點內容
紅色代碼百度雲資源 瀏覽:581
認識文件結構圖片 瀏覽:802
在美國買的iphone6在中國能用嗎 瀏覽:284
榮耀手環3升級失敗 瀏覽:965
db2資料庫的備份與恢復 瀏覽:686
哪個數據恢復大師是免費的 瀏覽:397
linux搭建網盤伺服器 瀏覽:938
linux文件數打開數 瀏覽:754
ps如何去網站的水印 瀏覽:39
watch如何關閉數據用戶體驗計劃 瀏覽:177
fastjson首字母大寫 瀏覽:749
圖樣及技術文件完整性 瀏覽:624
編程用什麼練速度 瀏覽:285
破戒僧六職業傳奇版本 瀏覽:828
linuxepoll並發 瀏覽:382
caxa版本高了打不開 瀏覽:928
數控銑床編程是什麼等級 瀏覽:306
訊飛語記導出的文件在哪裡 瀏覽:408
合租房子去哪個網站好 瀏覽:658
網站發文章頻率多少 瀏覽:725

友情鏈接