『壹』 用Mathematica自帶的Benchmark函數測機器性能,linux下的Mathematica比Windows下的要快,為什麼
Mathematica可以在許多不同的平台上運行,包括:Linux、Apple的Mac OS X以及基於NT的Microsoft Windows。所有平台都支持64位實現專。
軟體功能相同,只是運行屬於不同的平台
不過最重要的一點是:在類Unix的系統中,可以寫一個Mathematica腳本,給它設置可執行許可權,然後就可以像別的可執行文件那樣使用了。我不確定Windows下能不能做到類似的事情,想要了解更多Linux信息可以參考下《Linux就該這么學》。
『貳』 Linux 如何運行benchmark循環跑
Linux 如何運行benchmark循環跑如下
benchmark中包含了跑benchmark的源碼benchncnn.cpp,感興趣的可以先看一下裡面的內容。在Linux的文件根目錄下,新建一個build文件夾並進入,當然也可以不叫build,隨便你自己起。mkdir build && cd build進入之後就可以進行編譯了,編譯之後在build文件夾下會生成一個叫benchmark的文件夾,之後的工作會在這里進行。編譯用的是cmake,這里如果有問題的話可以注意一下cmake的版本,我用的版本是3.12.3。具體命令如下:cmake .
make -j8這里cmake編譯實際上是要根據上一層文件夾的CMakeLists.txt的文本來的,這里的..其實就是表示的上一層文件夾。 Make -j後面的數字是開幾個核,根據自己電腦的實際情況來。執行完成之後就可以看到build里有了benchmark的文件夾。
入這個文件夾,可以看到一個benchncnn的可執行文件已經編譯好了,運行這個可執行文件就可以測試模型的速度。但是這個可執行文件默認的是找到當前文件夾下的param格式的文件。
所有自帶的模型文件都在ncnn根目錄下的benchmark的文件夾中,把裡面所有的param文件都拷貝到現在的benchmark文件夾,然後執行如下命令./benchncnn 4 2 0 -1
第一個數字表示測試次數,第二個表示開的線程數(這一點ncnn做的不錯),最後一個數字-1表示只測cpu。NCNN交叉編譯到rk3288(armv7架構)和rk3399(armv8架構)的方法。
『叄』 Linux 伺服器性能出問題,排查下這些參數指標
1.1 top
1.2 vmstat
r 表示可運行進程數目,數據大致相符;而b表示的是 uninterruptible 睡眠的進程數目;swpd 表示使用到的虛擬內存數量,跟 top-Swap-used 的數值是一個含義,而如手冊所說,通常情況下 buffers 數目要比 cached Mem 小的多,buffers 一般20M這么個數量級;io 域的 bi、bo 表明每秒鍾向磁碟接收和發送的塊數目(blocks/s);system 域的 in 表明每秒鍾的系統中斷數(包括時鍾中斷),cs表明因為進程切換導致上下文切換的數目。
說到這里,想到以前很多人糾結編譯 linux kernel 的時候 -j 參數究竟是 CPU Core 還是 CPU Core+1?通過上面修改 -j 參數值編譯 boost 和 linux kernel 的同時開啟 vmstat 監控,發現兩種情況下 context switch 基本沒有變化,且也只有顯著增加 -j 值後 context switch 才會有顯著的增加,看來不必過於糾結這個參數了,雖然具體編譯時間長度我還沒有測試。資料說如果不是在系統啟動或者 benchmark 的狀態,參數 context switch>100000 程序肯定有問題。
1.3 pidstat
如果想對某個進程進行全面具體的追蹤,沒有什麼比 pidstat 更合適的了——棧空間、缺頁情況、主被動切換等信息盡收眼底。這個命令最有用的參數是-t,可以將進程中各個線程的詳細信息羅列出來。
-r: 顯示缺頁錯誤和內存使用狀況,缺頁錯誤是程序需要訪問映射在虛擬內存空間中但是還尚未被載入到物理內存中的一個分頁,缺頁錯誤兩個主要類型是
-s:棧使用狀況,包括 StkSize 為線程保留的棧空間,以及 StkRef 實際使用的棧空間。使用ulimit -s發現CentOS 6.x上面默認棧空間是10240K,而 CentOS 7.x、Ubuntu系列默認棧空間大小為8196K
1.4 其他
while :; do ps -eo user,pid,ni,pri,pcpu,psr,comm | grep 'ailawd' sleep 1; done
2.1 iostat
3.1 netstat
➜ ~ netstat -antp #列出所有TCP的連接
➜ ~ netstat -nltp #列出本地所有TCP偵聽套接字,不要加-a參數
3.2 sar
3.3 tcpmp
『肆』 linux系統中 webbench 測試性能過程中出現 Connect to server failed. Aborting benchmark. 怎麼解決
這是沒連上你的伺服器的問題,看看你的域名解析做好沒,如果是虛擬機做實驗,在後邊直接跟IP,別用域名。
『伍』 ubuntu benchmark怎麼進行測試
一、Linpack簡介
Linpack是國際上最流行的用於測試高性能計算機系統浮點性能的benchmark。通過對高性能計算機採用高斯消元法求解一元N次稠密線性代數方程組的測試,評價高性能計算機的浮點性能。
Performance Linpack,也叫高度並行計算基準測試,它對數組大小N沒有限制,求解問題的規模可以改變,除基本演算法(計算量)不可改變外,可以採用其它任何優化方法。前兩種測試運行規模較小,已不是很適合現代計算機的發展。
HPL 是針對現代並行計算機提出的測試方式。用戶在不修改任意測試程序的基礎上,可以調節問題規模大小(矩陣大小)、使用CPU數目、使用各種優化方法等等來執 行該測試程序,以獲取最佳的性能。HPL採用高斯消元法求解線性方程組。求解問題規模為N時,浮點運算次數為(2/3 * N^3-2*N^2)。因此,只要給出問題規模N,測得系統計算時間T,峰值=計算量(2/3 * N^3-2*N^2)/計算時間T,測試結果以浮點運算每秒(Flops)給出。HPL測試結果是TOP500排名的重要依據。
二、Linpack安裝與測試
1. Linpack安裝條件:
在安裝HPL之前,系統中必須已經安裝了編譯器、並行環境MPI以及基本線性代數子方程(BLAS)或矢量圖形信號處理庫(VSIPL)兩者之一。
在Ubuntu下,使用apt-get安裝gfortran,mpich2,每個計算節點都需要安裝
安裝完後,可先使用mpicc編譯helloworld驗證mpi集群是否工作正常
hpl linpack預設配置是使用atlas的庫,所以這里我們安裝ATLAS
參考http://blog.sina.com.cn/s/blog_708532ea0100m8nt.html
根據atlas的安裝文檔, 首先要switch off cpu throttling.首先安裝cpufrequtils和cpufreqd這兩個包, 也許還要安裝powernowd包
從http://sourceforge.net/projects/math-atlas/files/下載atlas
cd ATLAS
mkdir build
cd build
../configure
make
編譯沒有問題的話會在lib目錄下生成幾個靜態庫
2. 安裝與編譯Linpack:
第一步,從www.netlib.org/benchmark/hpl 網站上下載HPL包hpl.tar.gz並解包
cd hpl-2.1
cp setup/Make.Linux_PII_CBLAS_gm Make.x86_64
vi Make.x86_64
修改下列配置:
ARCH = x86_64
TOPdir = $(HOME)/projects/hpl-2.1
LAdir = $(HOME)/projects/ATLAS/build/lib
LAinc =
LAlib = $(LAdir)/libcblas.a $(LAdir)/libatlas.a
然後開始編譯:
make arch=x86_64
如果出現符號找不到的問題,請檢查LAlib的庫的位置
cd bin/x86_64
在這個目錄下生成了兩個文件, HPL.dat是linpack計算的配置文件, xhpl是測試程序
這里有關於HPL.dat的配置說明:
http://blog.csdn.net/yosoqoo/article/details/3563349
其中幾個重要的參數(必須針對集群環境修改)
1 # 表示只做一次計算,使用下面的第一個數
100000 30 34 35 Ns #矩陣大小,為了測試性能,一般取N*N*8 ~ 內存總量,集群時考慮總內存量
1 # of NBs
192 2 3 4 NBs #分塊大小,經驗值192
4 1 4 Ps # PxQ 應該等於整個集群的進程數,一般等於cpu核數
16 4 1 Qs # P 一般<=Q
如果是單機,可以運行mpiexec -n 64 ./xhpl來看一下是否工作正常。
對於集群,首先需要保證所有機器的可以相互使用ssh無密碼登錄(比如要從s1登錄到s2,需要把s1上的.ssh/id_rsa.pub內容拷貝到s2的.ssh/authorized_keys里。
然後創建mpi_hosts文件,內容就是集群內各機器名稱,每個機器一行。
在每個機器上,都需要有相同的用戶,以及同樣的hpl-2.1路徑和文件HPL.data,xhpl程序
運行mpiexec -n 64 -f mpi_hosts, ./xhpl
注意:
1. 矩陣不能太小,要保證矩陣數據可以佔用大量內存,運行時可以free來查看內存使用量,用top,然後按1來查看cpu每個核的使用情況
2. 節點間數據傳輸量比較大,應該使用萬兆網路,否則網路會成為瓶頸。
3.本文只是為了驗證,並不是為了優化benchmark。如果要達到更好的benchmark數值,應該使用優化的blas庫,比如intel的mkl。intel的mkl本身就帶了linpack測試程序
『陸』 linux是什麼!
Linux是一套免費使用和自由傳播的類Unix操作系統,是一個基於POSIX和Unix的多用戶、多任務、支持多線程和多CPU的操作系統。伴隨著互聯網的發展,Linux得到了來自全世界軟體愛好者、組織、公司的支持。它除了在伺服器操作系統方面保持著強勁的發展勢頭以外,在個人電腦、嵌入式系統上都有著長足的進步。使用者不僅可以直觀地獲取該操作系統的實現機制,而且可以根據自身的需要來修改完善這個操作系統,使其最大化地適應用戶的需要。
Linux不僅系統性能穩定,而且是開源軟體。其核心防火牆組件性能高效、配置簡單,保證了系統的安全。在很多企業網路中,為了追求速度和安全,Linux操作系統不僅僅是被網路運維人員當作伺服器使用,Linux既可以當作伺服器,又可以當作網路防火牆是Linux的
一大亮點。
Linux與其他操作系統相比 ,具有開放源碼、沒有版權、技術社區用戶多等特點
,開放源碼使得用戶可以自由裁剪,靈活性高,功能強大,成本低。尤其系統中內嵌網路協議棧
,經過適當的配置就可實現路由器的功能。這些特點使得Linux成為開發路由交換設備的理想開發平台。
『柒』 linux中./benchmark需要什麼許可權才能運行
當前登錄用戶需要benchmark.sh文件的操作許可權,同時文件放開的操作許可權
『捌』 Linux上有什麼比較專業測CPU的benchmark
用Linux自帶的bc計算器計算pi值的一種benchmark手段。
這也正體現了以前說的Linux是工程師的系統的專說法,Linux集成屬了非常多的工程師所需要的工具。
其實很簡單,就是一行命令。
time echo 「scale=5000; 4*a(1)」 | bc -l -q
time是計時程序。
scale是精度,4*a(1)調用了反正切函數。
由三角函數知道1的反正切是pi/4, pi=4* pi/4。
-l -q參數的意思請參照manpage。
這一行其實就是讓bc計算1的反正切,計算精度是5000位。
有的人用tcsh作為shell的需要注意指定time工具的位置,/usr/bin/time。
tcsh內部有一個內部命令time,輸出格式詭異。
在unix-center的Ubuntu 上跑的結果如下。
比x200好像慢點。
x200好像是38s。
『玖』 Linux日誌式文件系統面面觀
文件系統是用來管理和組織保存在磁碟驅動器上的數據的系統軟體,其實現了數據完整性的保 證,也就是保證寫入磁碟的數據和隨後讀出的內容的一致性。除了保存以文件方式存儲的數據以外,一個文件系統同樣存儲和管理關於文件和文件系統自身的一些重要信息(例如:日期時間、屬主、訪問許可權、文件大小和存儲位置等等)。這些信息通常被稱為元數據(metadata)。
由於為了避免磁碟訪問瓶頸效應,一般文件系統大都以非同步方式工作,因此如果磁碟操作被突然中斷可能導致數據被丟失。例如如果出現這種情況:如果當你處理一個在linux的ext2文件系統上的文檔,突然機器崩潰會出現什麼情況?
有這幾種可能:
*當你保存文件以後,系統崩潰。這是最好的情況,你不會丟失任何信息。只需要重新啟動計算機然後繼續工作。
*在你保存文件之前系統崩潰。你會丟失你所有的工作內容,但是老版本的文檔還會存在。
*當正在將保存的文檔寫入磁碟時系統崩潰。這是最糟的情況:新版文件覆蓋了舊版本的文件。這樣磁碟上只剩下一個部分新部分舊的文件。如果文件是二進制文件那麼就會出現不能打開文件的情況,因為其文件格式和應用所期待的不同。
在最後這種情況下,如果系統崩潰是發生在驅動器正在寫入元數據時,那麼情況可能更糟。這時候就是文件系統發生了損壞,你可能會丟失整個目錄或者整個磁碟分區的數據。
linux標准文件系統(ext2fs)在重新啟動時會通過調用文件掃描工具fsck試圖恢復損壞的元數據信息。由於ext2文件系統保存有冗餘的關鍵元數據信息的備份,因此一般來說不大可能出現數據完全丟失。系統會計算出被損壞的數據的位置,然後或者是通過恢復冗餘的元數據信息,或者是直接刪除被損壞或是元數據信息損毀的文件。
很明顯,要檢測的文件系統越大,檢測過程費時就越長。對於有幾十個G大小的分區,可能會花費很長時間來進行檢測。由於Linux開始用於大型伺服器中越來越重要的應用,因此就越來越不能容忍長時間的當機時間。這就需要更復雜和精巧的文件系統來替代ext2。
因此就出現了日誌式文件系統(journalling filesystems)來滿足這樣的需求。
什麼是日誌式文件系統
這里僅僅對日誌式文件系統進行簡單的說明。如果需要更深入的信息請參考文章日誌式文件系統,或者是日誌式文件系統介紹。
大多數現代文件系統都使用了來自於資料庫系統中為了提高崩潰恢復能力而開發的日誌技術。磁碟事務在被真正寫入到磁碟的最終位置以前首先按照順序方式寫入磁碟中日誌區(或是log區)的特定位置。
根據日誌文件系統實現技術的不同,寫入日誌區的信息是不完全一樣的。某些實現技術僅僅寫文件系統元數據,而其他則會記錄所有的寫操作到日誌中。
現在,如果崩潰發生在日誌內容被寫入之前發生,那麼原始數據仍然在磁碟上,丟失的僅僅是最新的更新內容。如果當崩潰發生在真正的寫操作時(也就是日誌內容已經更新),日誌文件系統的日誌內容則會顯示進行了哪些操作。因此當系統重啟時,它能輕易根據日誌內容,很快地恢復被破壞的更新。
在任何一種情況下,都會得到完整的數據,不會出現損壞的分區的情況。由於恢復過程根據日誌進行,因此整個過程會非常快只需要幾秒鍾時間。
應該注意的是使用日誌文件系統並不意味著完全不需要使用文件掃描工具fsck了。隨機發生的文件系統的硬體和軟體錯誤是根據日誌是無法恢復的,必須藉助於fsck工具。
目前Linux環境下的日誌文件系統
在下面的內容里將討論三種日誌文件系統:第一種是ext3,由Linux內核Stephen Tweedie開發。ext3是通過向ext2文件系統上添加日誌功能來實現的,目前是redhat7.2的默認文件系統;Namesys開發的ReiserFs日誌式文件系統,可以下載,目前Mandrake8.1採用該日誌式文件系統。SGI在2001年三月發布了XFS日誌式文件系統。可以在 oss.sgi.com/projects/xfs/下載。下面將對這三種日誌文件系統採用不同的工具進行檢測和性能測試。
安裝ext3
關於ext3文件系統技術方面的問題請參考Dr. Stephen Tweedie的論文和訪談。ext3日誌式文件系統直接來自於其祖先ext2文件系統。其具有完全向後兼容的關鍵特性,實際上其僅僅是在ext2日誌式文件系統上添加了日誌功能。其最大的缺點是沒有現代文件系統所具有的能提高文件數據處理速度和解壓的高性能。
ext3從 2.2.19開始是作為一個補丁方式存在的。如果希望對內核添加對ext3文件系統的支持,就需要使用補丁,可以得到補丁程序,一共需要如下文件:
* ext3-0.0.7a.tar.bz2:內核補丁
* e2fsprogs-1.21-WIP-0601.tar.bz2 支持ext3的e2fsprogs程序套件
拷貝linux-2.2.19.tar.bz2和ext3-0.0.7a.tar.bz2到/usr/src目錄下,進行解壓:
mv linux linux-old
tar -Ixvf linux-2.2.19.tar.bz2
tar -Ixvf ext3-0.0.7a.tar.bz2
cd linux
cat ../ext3-0.0.7a/linux-2.2.19.kdb.diff | patch -sp1
cat ../ext3-0.0.7a/linux-2.2.19.ext3.diff | patch -sp1
首先對內核添加SGI的kdb內核調試器補丁,第二個是ext3文件系統補丁。下來就需要配置內核,對文件系統部分的"Enable Second extended fs development code"回答Yes。然後編譯。
內核編譯安裝以後,需要安裝e2fsprogs軟體套件:
tar -Ixvf e2fsprogs-1.21-WIP-0601.tar.bz2
cd e2fsprogs-1.21
./configure
make
make check
make install
下來要做的工作就是在分區上創建一個ext3文件系統,使用新內核重新啟動,這時候你有兩種選擇創建新的日誌文件系統或者對一個已有的ext2文件系統升級到ext3日誌文件系統。
對於需要創建新ext3文件系統的情況下,只需要使用安裝的e2fsprogs軟體包中的mke2fs命令加-f參數就可以創建新的ext3文件系統:
mke2fs -j /dev/xxx
這里/dev/xxx是希望創建ext3文件系統的新分區。-j參數表示創建ext3而不是ext2文件系統。可以使用參數"-Jsize="來指定希望的日誌區大小(n單位為M)。
升級一個已有的ext2,使用tune2fs就可以了:
tune2fs -j /dev/xxx
你可以對正在載入的文件系統和沒有載入的文件系統進行升級操作。如果當前文件系統正在被載入,則文件.journal會在文件系統載入點的所在目錄被創建。如果是升級一個當時沒有載入的文件系統,則使用隱含的系統inode來記錄日誌,這時候文件系統的所有內容都會被保留不被破壞。
你可以使用下面的命令載入ext3文件系統:
mount -t ext3 /dev/xxx /mount_dir
由於ext3實際上是帶有日誌功能的ext2文件系統 ,因此一個ext3文件系統可以以ext2的方式被載入。
安裝XFS文件系統
如果需要從技術方面了解XFS文件系統,請參考SGI的XFS文件系統和SGI信息頁面。也可以參考FAQ。
XFS是一個SGI開發的linux環境下的日誌文件系統,它是一個成熟的技術,最初是使用在IRIX系統上的文件系統。XFS遵循GPL版權申明。目前xfs文件系統最新版本是1.02。下載得到對內核xfs文件系統支持補丁或者直接下載RPM包方式的內核,下面我們就以補丁方式說明如何對2.4.14內核使用xfs。首先下載如下內容
patch-2.4.14-xfs-1.0.2.bz2
patch-2.4.14-xfs-1.0.2-kdb.bz2
拷貝Linux內核linux-2.4.2.tar.bz2到 /usr/src目錄下,修改老的內核目錄名,然後解壓新內核:
mv linux linux-old
tar -Ixf inux-2.4.2.tar.bz2
拷貝每個每個補丁到內核源碼目錄下(例如:/usr/src/linux),並打補丁:
zcat patch-2.4.14-xfs-1.0.2.bz2 | patch -p1
zcat patch-2.4.14-xfs-1.0.2-kdb.bz2 | patch -p1
然後配置內核,打開文件系統部分的內核選項:"XFS filesystem support" (CONFIG_XFS_FS)和"Page Buffer support" (CONFIG_PAGE_BUF)。同時需要升級下面這些系統工具到下面或更高的版本:
motils-2.4.0
autoconf-2.13
e2fsprogs-devel-1.18
安裝新內核並重啟伺服器。
然後下載xfs工具。這個軟體包包括下面的命令來處理文件系統,使用下面的命令來安裝該軟體包::
tar -zxf xfsprogs-1.2.0.src.tar.gz
cd xfsprogs-1.2.0
make configure
make
make install
安裝這些命令以後,就可以創建新的XFS文件系統:
mkfs -t xfs /dev/xxx
如果xxx是一個已經存在的文件系統,那麼就需要使用"-f"參數來創建新分區,但是記得這將會破壞該分區的所有數據。
mkfs -t xfs -f /dev/xxx
創建以後就可以使用基於下面的命令載入新文件系統:
mount -t xfs /dev/xxx /mount_dir
安裝ReiserFS文件系統
如果希望更多地從技術方面了解reiserFS文件系統,請參考NAMESYS和FAQ。
ReiserFS文件系統從2.4.1-pre4開始就是Linux內核的正式支持的文件系統了。為了使用reiserFS文件系統那你首先需要在系統上安裝文件系統支持工具(如:創建ReiserFS文件系統的mkreiserfs工具)。最新的ReiserFS文件系統版本可以以補丁的方式添加到2.2.x或者2.4.x內核中。這里我們以2.2.19為例:
第一步,首先下在內核源碼,並下在ReiserFS文件系統的2.2.19補丁 ,目前補丁最新版本是linux-2.2.19-reiserfs-3.5.34-patch.bz2。同時應該下載工具軟體包:reiserfsprogs-3.x.0j.tar.gz。
然後解壓內核源碼和補丁包到/usr/src中:
tar -Ixf linux-2.2.19.tar.bz2
bzcat linux-2.2.19-reiserfs-3.5.34-patch.bz2 | patch -p0
編譯內核支持reiserfs,安裝內核。然後安裝文件系統工具軟體:
cd /usr/src/linux/fs/reiserfs/utils
make
make install
安裝新內核並重新啟動。現在就可以創建新的'reiserfs文件系統,並載入:
mkreiserfs /dev/xxxx
mount -t reiserfs /dev/xxx /mount_dir
文件系統性能測試
測試環境使用的計算機環境如下:Pentium III - 16 Mb RAM - 2 Gb HD,操作系統為RedHat6.2。所有的文件系統都能正常工作,所以就進行benchmark分析來對它們進行性能比較。首先我直接拔掉系統電源以模擬系統掉電情況,以測試日誌文件系統恢復過程。所有的文件系統都成功地經過了文件掃描檢測階段,在數秒以後系統都經過了掃描然後正常啟動了系統。
下一步就採用了bonnie++性能測試程序進行測試,這個程序對一個文件進行資料庫類型的訪問,進行了創建、讀和刪除小文件,這些操作對於Squid、INN或者Maildir格式的郵件伺服器程序(qmail)是最常見的操作。性能測試命令為:
bonnie++ -d/work1 -s10 -r4 -u0
其對載入在/work1目錄下的文件系統進行了10Mb(-s10)的測試。因此在執行測試之前必須創建適當類型的文件系統並載入到目錄/work1下。其他的參數指定內存大小(-r4)的M數,和以root身份運行測試程序,測試結果如下:
每種測試都有兩組數據:文件系統速度(K/sec)和CPU佔用率(%CPU)。速度越高,文件系統越好。而對於CPU率來說,數字越小性能越好。可以看到Reiserfs文件系統在文件操作方面(Sequential Create和Random Create部分的) 的性能最好,超出其他文件系統10倍之多。在其他方面(Sequential Output和Sequential Input)則和其他文件系統性能不相上下。對於其他文件系統則沒有特別明顯的區別。XFS性能接近ext2文件系統,ext3文件系統則比ext2要稍微慢上一些(因為記錄日誌需要一些額外的時間)。 最後使用從得到的性能測試程序mongo,並對其進行了修改以對三種日誌文件系統進行測試。這里在mongo.pl程序中添加了添加了載入xfs和ext3文件系統的命令,並對其進行格式化處理,然後就開始性能測試分析。 該腳本格式劃分區/dev/xxxx,載入其並在每個階段運行指定數目的進程:創建、拷貝、符號連接處理、讀、顯示文件狀態信息、重命名和刪除文件。同時,該程序在創建和拷貝階段以後會計算分段數(fragmentation)。
Fragm = number_of_fragments / number_of_files
可以在結果文件中得到同樣的測試比較結果:
log - 原始結果
log.tbl - 比較程序的輸出結果
log_table - 表格式的結果
下面的命令進行測試:
mongo.pl ext3 /dev/hda3 /work1 logext3 1
如果要測試其他文件系統,就需要把上面命令的參數中的ext3修改為reiserfs或xfs。其他參數分別為要載入的分區,載入路徑,保存測試結果的文件名及啟動的進程數。
下面的表格是測試結果。數據單位為秒。值越低性能越好。第一個表格測試使用的數據塊大小為100位元組,第二個表格為1000位元組,最後一個為10000位元組
從上面的表格可以看到ext3在狀態刪除和重命名方面要性能更好一些,而ReiserFS文件系統在文件創建和拷貝性能表現更出色。同時也可以看到reiserFS正如其技術文檔提到的其在小文件處理方面性能相當出色。
結論
目前Linux至少有兩個健壯可靠的日誌文件系統可供選擇(XFS和reiserFS),其都得到了廣泛的應用。例如Mandrake8.1就默認支持reiserFS文件系統。
從性能測試的結果可以看到,reiserFS是最好的選擇。