1. 基於linux 的 並行計算的集群。 詳細步驟 謝謝
先申明哈,內容是復制博友的。希望對你有幫助!linux集群中MPI的並行計算環境的簡單配置
MPI的安裝及簡單測試
MPI有多種實現版本,如Argonne國家實驗室開發的MPICH,Edinburgh開發的CHIMP以及Ohio State University開發的LAM/MPI。其中MPICH是一種最重要的MPI實現,它可以從網上免費獲得Linux和Windows版本。它的開發和MPI規范的制定是同步的,因此最能反映MPI的變化和發展,MPICH由此成為實現MPI的最成熟和最廣泛使用的版本。本文安裝的MPI軟版本為MPICH-1.2.6。
安裝步驟:
1、從網上下載MPICH壓縮包(mpich.tar.gz)
2、解壓:# tar zxvf mpich.tar.gz
3、進入解壓後的目錄: # cd mpich-1.2.6
4、配置: # ./configure –prefix=/usr/local/mpich
其中/usr/local/mpich為軟體所安裝的目錄
5、編譯 # make
6、安裝 # make install
7、配置該軟體的用戶搜索路徑
Root 用戶下:修改/etc/profile 加入
PATH=$PATH:/usr/local/mpich/bin
MANPATH=$MANPATH:/usr/local/mpich/man
Export PATH MANPATH
普通用戶下:修改~/.bash_profile 加入
export PATH=$PATH:/usr/local/mpich/bin
8、修改/usr/local/mpich/share/machines.LINUX文件,加入集群中可以用來做並行計算的主機名(八節點集群為例)
加入的內容為:
server
pc1
pc2
pc3
pc4
pc5
pc6
pc7
9、MPI環境的簡單測試
在伺服器節點上,以mpich 自帶的計算PI值的並行計算程序cpi對所搭建的集群環境做簡單的測試。
步驟:
在/usr/local/mpich/example目錄下
1 編譯 # make cpi
2 啟動並行計算 # mpirun –np N cpi (其中N 為節點機的個數)
可以看到PI值及誤差和計算時間,說明環境搭建基本成功。至此,所組建的MPI集群基本成功。
2. linux下如何獲得tcp狀態信息
在服制務程序中,對於長連接的服務.經常會出現一些連接異常,比如常見的CLOSE_WAIT.我們可以同過getsockopt函數來獲得某個socket的狀態。
#include
struct tcp_info optval;
int nClientFd = CSockTool::connect("192.168.10.4", 8899);
int ret= getsockopt(nClientFd, IPPROTO_TCP,TCP_INFO, &optval, &len);
if(optval.tcpi_state==TCP_CLOSE_WAIT)
//do something
//這個方法是在linux上的,其他系統需要查手冊。
3. Linux 下如何知道網卡驅動是否安裝 用命令怎麼查看
補充一下:如果您用命令ifconfig -a 看到eh0,那麼也就是裝了網卡,如果沒有那就沒有裝了。
你可以用命令lscpi | grep "Ethernet" 查看你的網卡型號。
4. 怎麼查看linux下的千兆網卡驅動是否安裝成功
你在命令行下輸入ifconfig ,如出現eth0或eth1的話,就表示網卡安裝成功了。
5. 高性能計算的優化
高性能計算(HighPerformanceComputing)是計算機科學的一個分支,主要是指從體系結構、並行演算法和軟體開發等方面研究開發高性能計算機的技術。
隨著計算機技術的飛速發展,高性能計算機的計算速度不斷提高,其標准也處在不斷變化之中。
高性能計算簡單來說就是在16台甚至更多的伺服器上完成某些類型的技術工作負載。到底這個數量是需要8台,12台還是16台伺服器這並不重要。在定義下假設每一台伺服器都在運行自己獨立的操作系統,與其關聯的輸入/輸出基礎構造都是建立在COTS系統之上。
簡而言之,討論的就是Linux高性能計算集群。
一個擁有20000台伺服器的信息中心要進行分子動力學模擬無疑是毫無問題的,就好比一個小型工程公司在它的機房裡運行計算流體動力學(CFD)模擬。解決工作負載的唯一限制來自於技術層面。接下來我們要討論的問題是什麼能直接加以應用。
量度(Metrics)
性能(Performance),每瓦特性能(Performance/Watt),每平方英尺性能(Performance/Squarefoot)和性能價格比(Performance/dollar)等,對於提及的20000台伺服器的動力分子簇來說,原因是顯而易見的。運行這樣的系統經常被伺服器的能量消耗(瓦特)和體積(平方英尺)所局限。這兩個要素都被計入總體擁有成本(TCO)之列。在總體擁有成本(TCO)方面取得更大的經濟效益是大家非常關注的。
議題的范圍限定在性能方面來幫助大家理解性能能耗,性能密度和總體擁有成本(TCO)在實踐中的重要性。
性能的定義
在這里把性能定義為一種計算率。例如每天完成的工作負載,每秒鍾浮點運算的速度(FLOPs)等等。接下來要思考的是既定工作量的完成時間。這兩者是直接關聯的,速度=1/(時間/工作量)。因此性能是根據運行的工作量來進行測算的,通過計算其完成時間來轉化成所需要的速度。
定量與定性
從定性的層面上來說這個問題很容易回答,就是更快的處理器,更多容量的內存,表現更佳的網路和磁碟輸入/輸出子系統。但當要在決定是否購買Linu集群時這樣的回答就不夠准確了。
對Linux高性能計算集群的性能進行量化分析。
為此介紹部分量化模型和方法技巧,它們能非常精確的對大家的業務決策進行指導,同時又非常簡單實用。舉例來說,這些業務決策涉及的方麵包括:
購買---系統元件選購指南來獲取最佳性能或者最經濟的性能配置---鑒別系統及應用軟體中的瓶頸
計劃---突出性能的關聯性和局限性來制定中期商業計劃
Linux高性能計算集群模型包括四類主要的硬體組成部分。
(1)執行技術工作負載的計算節點或者伺服器;
(2)一個用於集群管理,工作控制等方面的主節點;
(3)互相連接的電纜和高度普及的千兆乙太網(GBE);
(4)一些全局存儲系統,像由主節點輸出的NFS文件一樣簡單易用。
高性能計算機的衡量標准主要以計算速度(尤其是浮點運算速度)作為標准。高性能計算機是信息領域的前沿高技術,在保障國家安全、推動國防科技進步、促進尖端武器發展方面具有直接推動作用,是衡量一個國家綜合實力的重要標志之一。
隨著信息化社會的飛速發展,人類對信息處理能力的要求越來越高,不僅石油勘探、氣象預報、航天國防、科學研究等需求高性能計算機,而金融、政府信息化、教育、企業、網路游戲等更廣泛的領域對高性能計算的需求迅猛增長。
一個簡單量化的運用模型
這樣一個量化的運用模型非常直觀。在一個集群上對既定的工作完成的時間大約等同於在獨立的子系統上花費的時間:
e
1、時間(Time)=節點時間(Tnode)+電纜時間(Tfabric)+存儲時間(Tstorage)
Time = Tnode + Tfabric + Tstorag
這里所說的時間(Time)指的是執行工作量的完成時間,節點時間(Tnode)是指在計算節點上花費的完成時間,電纜時間(Tfabric)是指在互聯網上各個節點進行互聯的完成時間,而存儲時間(Tstorage)則是指訪問區域網或全球存儲系統的完成時間。
計算節點的完成時間大約等同於在獨立的子系統上花費的時間:
2、節點時間(Tnode)=內核時間(Tcore) +內存時間(Tmemory)
這里所說的內核時間(Tcore)指的是在微處理器計算節點上的完成時間。而內存時間(Tmemory)就是指訪問主存儲器的完成時間。這個模型對於單個的CPU計算節點來說是非常實用的,而且能很容易的擴展到通用雙插槽(SMP對稱多處理)計算節點。為了使第二套模型更加實用,子系統的完成時間也必須和計算節點的物理配置參數相關聯,例如處理器的速度,內存的速度等等。
計算節點
圖示中的計算節點原型來認識相關的配置參數。圖示上端的是2個處理器插槽,通過前端匯流排(FSB-front side bus)與內存控制中心(MCH)相連。這個內存控制中心(MCH)有四個存儲信道。同時還有一個Infiniband HCA通過信道點對點串列(PCIe)連接在一起。
像千兆乙太網和串列介面(SATA)硬碟之類的低速的輸入輸出系統都是通過晶元組中的南橋通道(South Bridge)相連接的。在圖示中,大家可以看到每個主要部件旁邊都用紅色標注了一個性能相關參數。這些參數詳細的說明了影響性能(並非全部)的硬體的特性。它們通常也和硬體的成本直接相關。舉例來說,處理器時鍾頻率(fcore)在多數工作負荷狀態下對性能影響巨大。根據供求交叉半導體產額曲線原理,處理器速度越快,相應成本也會更高。
高速緩存存儲器的體積也會對性能產生影響,它能減少主頻所承載的工作負荷以提高其運算速度。處理器內核的數量(Ncores)同樣會影響性能和成本。內存子系統的速度可以根據雙列直插內存模塊頻率(fDIMM)和匯流排頻率(fBus)進行參數化,它在工作負荷狀態下也對性能產生影響。同樣,電纜相互連接(interconnect fabric)的速度取決於信道點對點串列的頻率。
而其他一些因素,比如雙列直插內存模塊內存延遲(DIMM CAS Latency),存儲信道的數量等都做為次要因素暫時忽略不計。
使用的性能參數
在圖示中標明的6個性能參數中,保留四個和模型相關的參數。
首先忽略信道點對點串列的頻率(fPCIe),因為它主要影響的是電纜相互連接(interconnect fabric)速度的性能,這不在范圍之列。
接下來注意一下雙列直插內存模塊頻率(fDIMM)和匯流排頻率(fBus)會由於內存控制中心(MCH)而限於固定比率。
使用的雙核系統中,這些比率最具代表性的是4:5, 1:1, 5:4。一般情況下只會用到其中的一個。高速緩存存儲器的體積非常重要。
在這個模型中保留這個參數。內核的數量(Ncores)和內核頻率(fcore)也非常重要,保留這兩個參數。
高性能計算(HPC)模型
這第二個模型的基本形式在計算機體系研究領域已經存在了很多年。
A普通模式是:
(3) CPI = CPI0 + MPI * PPM
這里的CPI指的是處理器在工作負荷狀態下每執行一個指令的周期。CPI0是指內核CPI,MPI I則是指在工作負荷狀態下高速緩存存儲器每個指令失誤的次數(注釋:在高性能計算領域,MPI主要用於信息傳遞界面,在此處主要是指處理器構造慣例),PPM是指以處理器時鍾滴答聲為單位對高速緩存存儲器每個指令失誤的次數的記錄。第二和第三個方程式相互吻合。這第一個術語代表的是處理器,第二個術語代表的是內存。
可以直觀的看到,假設每項工作下執行的P指令的工作負荷與代表處理器的頻率的內核頻率(每秒鍾處理器運行周期的單位)再與方程式(3)相乘,就得到了方程式(4):
Tnode = (CPIo * P) * (1 / fcore) + (MPI * P) * PPM * (1 / fcore)
在這里要注意(CPIo * P)是以每項工作分配下處理器的運行周期為單位,對微處理器架構上運行的既定工作負荷通常是個恆量。因此把它命名為α。(處理器周期本身無法對時間進行測算,如果乘以內核的頻率就可以得到時間的測算標准。因此Tnode在方程式(4)的右邊)。
(MPI * P)也是同理。對於既定工作負荷和體系結構來說它也是個恆量,但它主要依賴於高速緩存存儲器的體積。我們把它命名為M(MBcache)。而PPM是指訪問主存的成本。對於既定的工作負荷來說,通常是個固定的數字C。PPM乘以內存頻率和匯流排頻率的比值(fcore / fBus)就從匯流排周期(bus cycles)轉化成了處理器周期。因此PM = C * fcore / fBus。套入M(MBcache)就可以得到:
(5) Tnode = α * (1 / fcore) + M(MBcache) * (1 / fbus)
這個例子說明匯流排頻率(bus frequency)也是個恆量,方程式(5)可以簡化為方程式(6):
(6) Tnode = α * (1 / fcore) + β
在這里Tcore = α * (1 / fcore),而Tmemory = β(也就是公式2里的術語。我們把這些關鍵點關聯在一起)。
首先在模型2里,公式5和公式6都有堅實的理論基礎,因為經分析過它是如何從公式3推理而來(它主要應用於計算機體系理論)。其次,這個模型4個硬體性能參數的3個已經包括其中。還差一個參數就是內核數量(Ncores)。
用直觀的方式來說明內核的數量,就是假設把N個內核看做是一個網路頻率上運行的一個內核,稱之為N*fcore。那麼根據公式(6)我們大致可以推算出:
(7) Tcore ~ α / (N*fcore)
Tcore~ ( α / N) * (1 / fcore )
也可以把它寫成:
(8) αN = ( α / N)
多核處理器的第一個字母Alpha可能是單核處理器的1/N次。
通過數學推算這幾乎是完全可能的。
通常情況下我們是根據系統內核和匯流排頻率(bus frequencies)來衡量計算機系統性能,如公式(5)所闡述的。但是公式(5)的左邊是時間單位--這個時間單位指的是一項工作量的完成時間。這樣就能更清楚的以時間為單位說明右側的主系統參數。同時請注意內核的時鍾周期τcore(是指每次內核運行周期所需的時間)也等同於(1 / fcore)。匯流排時鍾(bus clock)周期也是同理。
(9) Tnode = αN * τcore + M(MBcache) * τBus
這個公式的轉化也給了一個完成時間的模型,那就是2個基本的自變數τcore和τBus呈現出直線性變化。這對使用一個簡單的棋盤式對照表對真實系統數據進行分析是有幫助的。
6. 誰知道在linux下的常用後綴名啊
在Linux系統中,可執行文件沒有統一的後綴,系統從文件的屬性來區分可執行文件版和不可執行文件。而gcc則通權過後綴來區別輸入文件的類別,下面我們來介紹gcc所遵循的部分約定規則。
.c為後綴的文件,C語言源代碼文件;
.a為後綴的文件,是由目標文件構成的檔案庫文件;
.C,.cc或.cxx 為後綴的文件,是C++源代碼文件;
.h為後綴的文件,是程序所包含的頭文件;
.i 為後綴的文件,是已經預處理過的C源代碼文件;
.ii為後綴的文件,是已經預處理過的C++源代碼文件;
.m為後綴的文件,是Objective-C源代碼文件;
.o為後綴的文件,是編譯後的目標文件;
.s為後綴的文件,是匯編語言源代碼文件;
.S為後綴的文件,是經過預編譯的匯編語言源代碼文件。
7. 如何在vmware配置linux下的mpi
虛擬機CentOS中配置MPI多節點並行計算完整版,這是一個新手教程,從一個空白的CentOS到能正常運行的基礎環境,盡量詳細寫了每個步驟
我的環境如下:
宿主機:Windows 10 Pro
虛擬機:VMware 12 + CentOS 6.6
一、 虛擬機網路配置實現多節點互訪
硬體資源有限,所以我只開了兩台虛擬機均為 Centos 6.6。
1.修改網卡配置文件
/etc/sysconfig/network-scripts/ifcfg-eth0 將其中內容修改如下:
DEVICE=eth0
HWADDR=00:0C:29:A0:3A:CA
TYPE=Ethernet
UUID=bf583745-f834-451c-890c-39821a590543
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.207.128
NETMASK=255.255.255.0
DNS1=192.168.207.2
將每一台虛擬機都如此配置,IPADDR是ip地址,不要重復
2.修改網關及主機名
/etc/sysconfig/network
ETWORKING=yes
HOSTNAME=node1
NTPSERVERARGS=iburst
GATEWAY=192.168.207.2
一些文章中提到還需要修改VMware的設置(關閉本地DHCP服務),實際上,Centos 中設置好後就不需要動VMware的設置了
二、 在虛擬機中添加同名用戶
在不同節點中需要有同名的用戶以方便免密碼SSH連接
node1和node2中以root用戶執行下列命令
# useradd mpiuser
三、 實現免密碼SSH登陸
當前節點為node1,用戶為mpiuser,工作目錄為 ~ 家目錄
1.生成 SSH 私鑰對
$ ssh-keygen -t rsa 一路回車就好
2.進入 .ssh 目錄
$ cd ./.ssh
3.生成authorized_keys文件
$ cp id_rsa.pub authorized_keys
4.回到mpiuser的家目錄
$ cd ~
5.建立本身的信任連接
$ ssh node1
6.設置 node2
$ ssh-keygen -t rsa 生成.ssh文件夾
$ scp node1:~/.ssh/* ./ 拷貝node1上的.ssh文件夾到node2
# scp node1:/etc/hosts /etc/hosts 拷貝node1上的hosts文件到node2,可能需要root許可權
$ ssh node2
$ ssh node1
7.如果還有其他節點,設置方法同node2
設置成功後,在任意節點執行SSH連接其他節點都不需要密碼,注意必需每個節點都有mpiuser這個用戶,之所以使用一個普通用戶,是為了避免root執行mpi程序時遇到風險。在一些mpi實現中,也不允許以root用戶執行。
四、 配置MPI運行環境
1. 下載 mpich
官方網站 http://www.mpich.org 下載其中的mpich-3.2.tar.gz
2. 解壓並進入目錄
# tar xvf mpich-3.2.tar.gz
# cd mpich-3.2
# ./configure –prefix=/usr/local/mpich
# make
# make install
3. 設置環境變數,修改 /etc/profile ,加入下面幾行代碼
PATH=$PATH:/usr/local/mpich/bin
MANPATH=$MANPATH:/usr/local/mpich/man
export PATH MANPATH
4. 使剛剛的修改生效
# source /etc/profile
5. mpi多節點配置
新建一個配置文件
# touch /usr/local/mpich/servers
修改其中內容為:
node1:2 #在node1上運行兩個進程
node2:2
如果有多個節點繼續往下寫
五、 單節點測試
將源碼包中的 examples 拷貝到 mpich 的安裝目錄
# cp -r ./examples /usr/local/mpich/
用示常式序進行測試
$ mpirun -np 4 /usr/local/mpich/examples/cpi
Process 1 of 4 is on node1
Process 0 of 4 is on node1
Process 3 of 4 is on node1
Process 2 of 4 is on node1
pi is approximately 3.1415926544231239, Error is 0.0000000008333307
wall clock time = 0.081049
得到如圖的回顯結果證明mpich的運行環境正常
六、 多節點測試
$ mpiexec -np 4 -f /usr/local/mpich/servers /usr/local/mpich/examples/cpi
Process 1 of 4 is on node1
Process 0 of 4 is on node1
Process 3 of 4 is on node2
Process 2 of 4 is on node2
pi is approximately 3.1415926544231239, Error is 0.0000000008333307
wall clock time = 0.139722
如上,在兩個節點上分別運行了兩個進程,配置過程到此結束
8. 如何最快搭建LINUX伺服器集群
1.2.並行技術
這是一個非常簡單的建造四節點的小集群系統的例子,它是構建在Linux操作系統上,通過MPICH軟體包實現的,希望這個小例子能讓大家對集群系統的構建有一個最基本的了解。
2.使用MPICH構建一個四節點的集群系統
這是一個非常簡單的建造四節點的小集群系統的例子,它是構建在Linux操作系統上,通過MPICH軟體包實現的,希望這個小例子能讓大家對集群系統的構建有一個最基本的了解。
2.1 所需設備
1).4台採用Pentium II處理器的PC機,每台配
置64M內存,2GB以上的硬碟,和EIDE介面的光碟驅動器。
2).5塊100M快速乙太網卡,如SMC 9332 EtherPower 10/100(其中四塊卡用於連接集群中的結點,另外一塊用於將集群中的其中的一個節點與其它網路連接。)
3).5根足夠連接集群系統中每個節點的,使用5類非屏蔽雙絞線製作的RJ45纜線
4).1個快速乙太網(100BASE-Tx)的集線器或交換機
5).1張Linux安裝盤
2.2 構建說明
對計算機硬體不熟的人,實施以下這些構建步驟會感到吃力。如果是這樣,請找一些有經驗的專業人士尋求幫助。
1. 准備好要使用的採用Pentium II處理器的PC機。確信所有的PC機都還沒有接上電源,打開PC機的機箱,在准備與網路上的其它設備連接的PC機上安裝上兩塊快速乙太網卡,在其它的 PC機上安裝上一塊快速乙太網卡。當然別忘了要加上附加的內存。確定完成後蓋上機箱,接上電源。
2. 使用4根RJ45線纜將四台PC機連到快速乙太網的集線器或交換機上。使用剩下的1根RJ45線將額外的乙太網卡(用於與其它網路相連的那塊,這樣機構就可以用上集群)連接到機構的區域網上(假定你的機構區域網也是快速乙太網),然後打開電源。
3. 使用LINUX安裝盤在每一台PC機上安裝。請確信在LINUX系統中安裝了C編譯器和C的LIB庫。當你配置TCP/IP時,建議你為四台PC分別指定為192.168.1.1、192.168.1.2、192.168.1.3、192.168.1.4。第一台PC為你的伺服器節點(擁有兩塊網卡的那台)。在這個伺服器節點上的那塊與機構區域網相連的網卡,你應該為其指定一個與機構區域網吻合的IP地址。
4.當所有PC都裝好Linux系統後,編輯每台機器的/etc/hosts文件,讓其包含以下幾行:
192.168.1.1 node1 server
192.168.1.2 node2
192.168.1.3 node3
192.168.1.4 node4
編輯每台機器的/etc/hosts.equiv文件,使其包含以下幾行:
node1
node2
node3
node4
$p#
以下的這些配置是為了讓其能使用MPICH』s p4策略去執行分布式的並行處理應用。
1. 在伺服器節點
,建一個/mirror目錄,並將其配置成為NFS伺服器,並在/etc/exports文件中增加一行:
/mirror node1(rw) node2(rw) node3(rw) node4(rw)
2. 在其他節點上,也建一個/mirror目錄,關在/etc/fstab文件中增加一行:
server:/mirror /mirror nfs rw,bg,soft 0 0
3. /mirror這個目錄從伺服器上輸出,裝載在各個客戶端,以便在各個節點間進行軟體任務的分發。
4. 在伺服器節點上,安裝MPICH。MPICH的文檔可在
5.任何一個集群用戶(你必須在每一個節點新建一個相同的用戶),必須在/mirror目錄下建一個屬於它的子目錄,如 /mirror/username,用來存放MPI程序和共享數據文件。這種情況,用戶僅僅需要在伺服器節點上編譯MPI程序,然後將編譯後的程序拷貝到在/mirror目錄下屬於它的的子目錄中,然後從他在/mirror目錄下屬於它的的子目錄下使用p4 MPI策略運行MPI程序。
2.3 MPICH安裝指南
1.如果你有gunzip,就d下載mpich.tar.gz,要不然就下載mpich.tar.Z。你可以到http://www.mcs.anl.gov/mpi/mpich/downloa下載,也可以使用匿名FTP到ftp.mcs.anl.gov的pub/mpi目錄拿。(如果你覺得這個東西太大,你可以到pub/mpi/mpisplit中取分隔成塊的幾個小包,然後用cat命令將它們合並)
2.解壓:gunzip ;c mpich.tar.gz tar xovf-(或zcat mpich.tar.Ztar xovf-)
3.進入mpich目錄
4.執行:./configure為MPICH選擇一套適合你的實際軟硬體環境的參數組,如果你對這些默認選擇的參數不滿意,可以自己進行配置(具體參見MPICH的配置文檔)。最好選擇一個指定的目錄來安裝和配置MPICH,例如:
./configure -prefix=/usr/local/mpich-1.2.0
5.執行:make >&make.log 這會花一段較長的時間,不同的硬體環境花的時間也就不同,可能從10分鍾到1個小時,甚至更多。
6.(可選)在工作站網路,或是一台單獨的工作站,編輯mpich/util/machines/machines.xxx(xxx是MPICH對你機器體系結構取的名稱,你能很容易的認出來)以反映你工作站的當地主機名。你完全可以跳過這一步。在集群中,這一步不需要。
7.(可選)編譯、運行一個簡單的測試程序:
cd examples/basic
make cpi
ln ;s ../../bin/mpirun mpirun
./mpirun ;np 4 cpi
此時,你就在你的系統上運行了一個MPI程序。
8.(可選)構建MPICH其餘的環境,為ch_p4策略使
用安全的服務會使得任何啟動速度加快,你可以執行以下命令構建:
make serv_p4
(serv_p4是一個較新的P4安全服務的版本,它包含在MPICH 1.2.0版中),nupshot程序是upshot程序的一個更快版本,但他需要tk 3.6版的源代碼。如果你有這個包,你就用以下命令可以構建它:
make nupshot
9.(可選)如果你想將MPICH安裝到一個公用的地方讓其它人使用它,你可以執行:
make install 或 bin/mpiinstall
你可以使用-prefix選項指定MPICH安裝目錄。安裝後將生成include、lib、bin、sbin、www和man目錄以及一個小小的示例目錄,
到此你可以通告所有的用戶如何編譯、執行一個MPI程序。
9. 如何在Linux環境下對str2str進行配置
Linux下提供了iconv實現這一功能,在Linux 的 shell 環境下,iconv用法如下: iconv -f fromconde -t tocode -f: 指定需要轉換的文本編碼 -t: 指定目標文本編碼 我們也可以用 -l 列舉出所有已知的字元編碼集合 iconv -l 具體用法可以通過幫助...
10. 入門答疑:如何從DOS系統引導Linux系統 (2)
及可選裝入initrd映像。(Linux文件系統中的RAM引導初始化)。 2. 需要DOS運行方式為實模式,即標準的DOS方式下運行才能進入Linux操作系統。 支持EMS驅動程序介面,即支持擴展內存。(VCPI) 3. 已有一個Linux操作系統安裝在你的硬碟上。 當你得到這個程序包之後,使用相應的解壓軟體把它解壓到相應的目錄。現舉個例子說明: 假定你獲得的軟體文件名為Loadlin16.zip。使用UnZip解壓至你的C:LOADLIN目錄下,在DOS命令行中輸入命令:C:>CD LOADLIN C:LOADLIN>LOADLIN zimageroot=/dev/hdb1 ro vga=ask 即可進入Linux操作系統。 由上例可見,LOADLIN需要一個zimage或bzimage文件,它們都是Linux內核的壓縮文件,zimage和bzimage是兩種不同的壓縮的Linux內核形式。 zimage在這里是在Linux操作系統使用Gcc程序編譯之後的系統核心,它在LOLI引導中同樣占重要地位。它的功能是引導初始化配置Linux的設備,調用系統初始驅動程序的進程。最後進入Linux的控制台,進行操作。 另外可選擇的裝入磁碟的映像文件。/dev/hdb1,指的是系統的驅動設備,這例子指的是第二個硬碟的第一個分區。Linux系統使用形如/dev/xxx的形式指定一個硬碟或一個光碟或類似如此的設備。 root=/dev/hdb1 是Linux系統所在位置,它指定Linux系統到底在哪裡,Loadlin程序如何識別和找到Linux操作系統,從而在Linux操作中調用特定的文件,配合zimage 進行引導。 /dev/hdb1 後面的ro指定了系統的讀屬性。在UMDOS的文件系統下,因為Linux從屬於DOS。所以,一般是rw屬性,即讀寫屬性,ro,rw表示是只讀還是讀寫。 LOADLIN 引導時,需要一個Linux引導核心,指定Linux的路徑。它能在DOS命令行使用Linux核心的參數直接能通過命令行參數傳遞到Linux內核。即可在命令行直使用Linux的內核的配置。 vga=ask 由用戶指定顯示模式。