Linux驅動程序的使用可以按照兩種方式編譯,一種是靜態編譯進內核,另一種是編譯成模塊以供動態載入。由於uClinux不支持模塊動態載入,而且嵌入式LINUX不能夠象桌面LINUX那樣靈活的使用insmod/rmmod載入卸載設備驅動程序,因而這里只介紹將設備驅動程序靜態編譯進uClinux內核的方法。
下面以UCLINUX為例,介紹在一個以模塊方式出現的驅動程序test.c基礎之上,將其編譯進內核的一系列步驟:
(1)
改動test.c源帶代碼
第一步,將原來的:
#include
#include
char
kernel_version[]=UTS_RELEASE;
改動為:
#ifdef
MODULE
#include
#include
char
kernel_version[]=UTS_RELEASE;
#else
#define
MOD_INC_USE_COUNT
#define
MOD_DEC_USE_COUNT
#endif
第二步,新建函數int
init_test(void)
將設備注冊寫在此處:
result=register_chrdev(254,"test",&test_fops);
(2)將test.c復制到/uclinux/linux/drivers/char目錄下,並且在/uclinux/linux/drivers/char目錄下mem.c中,int
chr_dev_init(
)函數中增加如下代碼:
#ifdef
CONFIG_TESTDRIVE
init_test();
#endif
(3)在/uclinux/linux/drivers/char目錄下Makefile中增加如下代碼:
ifeq($(CONFIG_TESTDRIVE),y)
L_OBJS+=test.o
Endif
(4)在/uclinux/linux/arch/m68knommu目錄下config.in中字元設備段里增加如下代碼:
bool
'support
for
testdrive'
CONFIG_TESTDRIVE
y
(5)
運行make
menuconfig(在menuconfig的字元設備選項里你可以看見我們剛剛添加的'support
for
testdrive'選項,並且已經被選中);make
dep;make
linux;make
linux.text;make
linux.data;cat
linux.text
linux.data
>
linux.bin。
(6)
在
/uclinux/romdisk/romdisk/dev/目錄下創建設備:
mknod
test
c
254
0
並且在/uclinux/appsrc/下運行make,生成新的Romdisk.s19文件。
到這里,在UCLINUX中增加設備驅動程序的工作可以說是完成了,只要將新的linux.bin與Romdisk
㈡ 如何寫linux pci設備驅動程序
Linux下PCI設備驅動開發
1. 關鍵數據結構
PCI設備上有三種地址空間:PCI的I/O空間、PCI的存儲空間和PCI的配置空間。CPU可以訪問PCI設備上的所有地址空間,其中I/O空間和存儲空間提供給設備驅動程序使用,而配置空間則由Linux內核中的PCI初始化代碼使用。內核在啟動時負責對所有PCI設備進行初始化,配置好所有的PCI設備,包括中斷號以及I/O基址,並在文件/proc/pci中列出所有找到的PCI設備,以及這些設備的參數和屬性。
Linux驅動程序通常使用結構(struct)來表示一種設備,而結構體中的變數則代表某一具體設備,該變數存放了與該設備相關的所有信息。好的驅動程序都應該能驅動多個同種設備,每個設備之間用次設備號進行區分,如果採用結構數據來代表所有能由該驅動程序驅動的設備,那麼就可以簡單地使用數組下標來表示次設備號。
在PCI驅動程序中,下面幾個關鍵數據結構起著非常核心的作用:
pci_driver
這個數據結構在文件include/linux/pci.h里,這是Linux內核版本2.4之後為新型的PCI設備驅動程序所添加的,其中最主要的是用於識別設備的id_table結構,以及用於檢測設備的函數probe( )和卸載設備的函數remove( ):
struct pci_driver {
struct list_head node;
char *name;
const struct pci_device_id *id_table;
int (*probe) (struct pci_dev *dev, const struct pci_device_id *id);
void (*remove) (struct pci_dev *dev);
int (*save_state) (struct pci_dev *dev, u32 state);
int (*suspend)(struct pci_dev *dev, u32 state);
int (*resume) (struct pci_dev *dev);
int (*enable_wake) (struct pci_dev *dev, u32 state, int enable);
};
pci_dev
這個數據結構也在文件include/linux/pci.h里,它詳細描述了一個PCI設備幾乎所有的
硬體信息,包括廠商ID、設備ID、各種資源等:
struct pci_dev {
struct list_head global_list;
struct list_head bus_list;
struct pci_bus *bus;
struct pci_bus *subordinate;
void *sysdata;
struct proc_dir_entry *procent;
unsigned int devfn;
unsigned short vendor;
unsigned short device;
unsigned short subsystem_vendor;
unsigned short subsystem_device;
unsigned int class;
u8 hdr_type;
u8 rom_base_reg;
struct pci_driver *driver;
void *driver_data;
u64 dma_mask;
u32 current_state;
unsigned short vendor_compatible[DEVICE_COUNT_COMPATIBLE];
unsigned short device_compatible[DEVICE_COUNT_COMPATIBLE];
unsigned int irq;
struct resource resource[DEVICE_COUNT_RESOURCE];
struct resource dma_resource[DEVICE_COUNT_DMA];
struct resource irq_resource[DEVICE_COUNT_IRQ];
char name[80];
char slot_name[8];
int active;
int ro;
unsigned short regs;
int (*prepare)(struct pci_dev *dev);
int (*activate)(struct pci_dev *dev);
int (*deactivate)(struct pci_dev *dev);
};
2. 基本框架
在用模塊方式實現PCI設備驅動程序時,通常至少要實現以下幾個部分:初始化設備模塊、設備打開模塊、數據讀寫和控制模塊、中斷處理模塊、設備釋放模塊、設備卸載模塊。下面給出一個典型的PCI設備驅動程序的基本框架,從中不難體會到這幾個關鍵模塊是如何組織起來的。
/* 指明該驅動程序適用於哪一些PCI設備 */
static struct pci_device_id demo_pci_tbl [] __initdata = {
{PCI_VENDOR_ID_DEMO, PCI_DEVICE_ID_DEMO,
PCI_ANY_ID, PCI_ANY_ID, 0, 0, DEMO},
{0,}
};
/* 對特定PCI設備進行描述的數據結構 */
struct demo_card {
unsigned int magic;
/* 使用鏈表保存所有同類的PCI設備 */
struct demo_card *next;
/* ... */
}
/* 中斷處理模塊 */
static void demo_interrupt(int irq, void *dev_id, struct pt_regs *regs)
{
/* ... */
}
/* 設備文件操作介面 */
static struct file_operations demo_fops = {
owner: THIS_MODULE, /* demo_fops所屬的設備模塊 */
read: demo_read, /* 讀設備操作*/
write: demo_write, /* 寫設備操作*/
ioctl: demo_ioctl, /* 控制設備操作*/
mmap: demo_mmap, /* 內存重映射操作*/
open: demo_open, /* 打開設備操作*/
release: demo_release /* 釋放設備操作*/
/* ... */
};
/* 設備模塊信息 */
static struct pci_driver demo_pci_driver = {
name: demo_MODULE_NAME, /* 設備模塊名稱 */
id_table: demo_pci_tbl, /* 能夠驅動的設備列表 */
probe: demo_probe, /* 查找並初始化設備 */
remove: demo_remove /* 卸載設備模塊 */
/* ... */
};
static int __init demo_init_mole (void)
{
/* ... */
}
static void __exit demo_cleanup_mole (void)
{
pci_unregister_driver(&demo_pci_driver);
}
/* 載入驅動程序模塊入口 */
mole_init(demo_init_mole);
/* 卸載驅動程序模塊入口 */
mole_exit(demo_cleanup_mole);
上面這段代碼給出了一個典型的PCI設備驅動程序的框架,是一種相對固定的模式。需要注意的是,同載入和卸載模塊相關的函數或數據結構都要在前面加上__init、__exit等標志符,以使同普通函數區分開來。構造出這樣一個框架之後,接下去的工作就是如何完成框架內的各個功能模塊了。
3. 初始化設備模塊
在Linux系統下,想要完成對一個PCI設備的初始化,需要完成以下工作:
檢查PCI匯流排是否被Linux內核支持;
檢查設備是否插在匯流排插槽上,如果在的話則保存它所佔用的插槽的位置等信息。
讀出配置頭中的信息提供給驅動程序使用。
當Linux內核啟動並完成對所有PCI設備進行掃描、登錄和分配資源等初始化操作的同時,會建立起系統中所有PCI設備的拓撲結構,此後當PCI驅動程序需要對設備進行初始化時,一般都會調用如下的代碼:
static int __init demo_init_mole (void)
{
/* 檢查系統是否支持PCI匯流排 */
if (!pci_present())
return -ENODEV;
/* 注冊硬體驅動程序 */
if (!pci_register_driver(&demo_pci_driver)) {
pci_unregister_driver(&demo_pci_driver);
return -ENODEV;
}
/* ... */
return 0;
}
驅動程序首先調用函數pci_present( )檢查PCI匯流排是否已經被Linux內核支持,如果系統支持PCI匯流排結構,這個函數的返回值為0,如果驅動程序在調用這個函數時得到了一個非0的返回值,那麼驅動程序就必須得中止自己的任務了。在2.4以前的內核中,需要手工調用pci_find_device( )函數來查找PCI設備,但在2.4以後更好的辦法是調用pci_register_driver( )函數來注冊PCI設備的驅動程序,此時需要提供一個pci_driver結構,在該結構中給出的probe探測常式將負責完成對硬體的檢測工作。
static int __init demo_probe(struct pci_dev *pci_dev, const struct
pci_device_id *pci_id)
{
struct demo_card *card;
/* 啟動PCI設備 */
if (pci_enable_device(pci_dev))
return -EIO;
/* 設備DMA標識 */
if (pci_set_dma_mask(pci_dev, DEMO_DMA_MASK)) {
return -ENODEV;
}
/* 在內核空間中動態申請內存 */
if ((card = kmalloc(sizeof(struct demo_card), GFP_KERNEL)) == NULL) {
printk(KERN_ERR "pci_demo: out of memory\n");
return -ENOMEM;
}
memset(card, 0, sizeof(*card));
/* 讀取PCI配置信息 */
card->iobase = pci_resource_start (pci_dev, 1);
card->pci_dev = pci_dev;
card->pci_id = pci_id->device;
card->irq = pci_dev->irq;
card->next = devs;
card->magic = DEMO_CARD_MAGIC;
/* 設置成匯流排主DMA模式 */
pci_set_master(pci_dev);
/* 申請I/O資源 */
request_region(card->iobase, 64, card_names[pci_id->driver_data]);
return 0;
}
4. 打開設備模塊
在這個模塊里主要實現申請中斷、檢查讀寫模式以及申請對設備的控制權等。在申請控制權的時候,非阻塞方式遇忙返回,否則進程主動接受調度,進入睡眠狀態,等待其它進程釋放對設備的控制權。
static int demo_open(struct inode *inode, struct file *file)
{
/* 申請中斷,注冊中斷處理程序 */
request_irq(card->irq, &demo_interrupt, SA_SHIRQ,
card_names[pci_id->driver_data], card)) {
/* 檢查讀寫模式 */
if(file->f_mode & FMODE_READ) {
/* ... */
}
if(file->f_mode & FMODE_WRITE) {
/* ... */
}
/* 申請對設備的控制權 */
down(&card->open_sem);
while(card->open_mode & file->f_mode) {
if (file->f_flags & O_NONBLOCK) {
/* NONBLOCK模式,返回-EBUSY */
up(&card->open_sem);
return -EBUSY;
} else {
/* 等待調度,獲得控制權 */
card->open_mode |= f_mode & (FMODE_READ | FMODE_WRITE);
up(&card->open_sem);
/* 設備打開計數增1 */
MOD_INC_USE_COUNT;
/* ... */
}
}
}
5. 數據讀寫和控制信息模塊
PCI設備驅動程序可以通過demo_fops 結構中的函數demo_ioctl( ),向應用程序提供對硬體進行控制的介面。例如,通過它可以從I/O寄存器里讀取一個數據,並傳送到用戶空間里:
static int demo_ioctl(struct inode *inode, struct file *file, unsigned int
cmd, unsigned long arg)
{
/* ... */
switch(cmd) {
case DEMO_RDATA:
/* 從I/O埠讀取4位元組的數據 */
val = inl(card->iobae + 0x10);
/* 將讀取的數據傳輸到用戶空間 */
return 0;
}
/* ... */
}
事實上,在demo_fops里還可以實現諸如demo_read( )、demo_mmap( )等操作,Linux內核源碼中的driver目錄里提供了許多設備驅動程序的源代碼,找那裡可以找到類似的例子。在對資源的訪問方式上,除了有I/O指令以外,還有對外設I/O內存的訪問。對這些內存的操作一方面可以通過把I/O內存重新映射後作為普通內存進行操作,另一方面也可以通過匯流排主DMA(Bus Master DMA)的方式讓設備把數據通過DMA傳送到系統內存中。
6. 中斷處理模塊
PC的中斷資源比較有限,只有0~15的中斷號,因此大部分外部設備都是以共享的形式申請中斷號的。當中斷發生的時候,中斷處理程序首先負責對中斷進行識別,然後再做進一步的處理。
static void demo_interrupt(int irq, void *dev_id, struct pt_regs *regs)
{
struct demo_card *card = (struct demo_card *)dev_id;
u32 status;
spin_lock(&card->lock);
/* 識別中斷 */
status = inl(card->iobase + GLOB_STA);
if(!(status & INT_MASK))
{
spin_unlock(&card->lock);
return; /* not for us */
}
/* 告訴設備已經收到中斷 */
outl(status & INT_MASK, card->iobase + GLOB_STA);
spin_unlock(&card->lock);
/* 其它進一步的處理,如更新DMA緩沖區指針等 */
}
7. 釋放設備模塊
釋放設備模塊主要負責釋放對設備的控制權,釋放佔用的內存和中斷等,所做的事情正好與打開設備模塊相反:
static int demo_release(struct inode *inode, struct file *file)
{
/* ... */
/* 釋放對設備的控制權 */
card->open_mode &= (FMODE_READ | FMODE_WRITE);
/* 喚醒其它等待獲取控制權的進程 */
wake_up(&card->open_wait);
up(&card->open_sem);
/* 釋放中斷 */
free_irq(card->irq, card);
/* 設備打開計數增1 */
MOD_DEC_USE_COUNT;
/* ... */
}
8. 卸載設備模塊
卸載設備模塊與初始化設備模塊是相對應的,實現起來相對比較簡單,主要是調用函數pci_unregister_driver( )從Linux內核中注銷設備驅動程序:
static void __exit demo_cleanup_mole (void)
{
pci_unregister_driver(&demo_pci_driver);
}
小結
PCI匯流排不僅是目前應用廣泛的計算機匯流排標准,而且是一種兼容性最強、功能最全的計算機匯流排。而Linux作為一種新的操作系統,其發展前景是無法估量的,同時也為PCI匯流排與各種新型設備互連成為可能。由於Linux源碼開放,因此給連接到PCI匯流排上的任何設備編寫驅動程序變得相對容易。本文介紹如何編譯Linux下的PCI驅動程序,針對的內核版本是2.4。
㈢ Linux系統下PCI轉串口卡驅動安裝方法
以下答案是我從我愛買電腦配件批發網上摘過來的,希望能幫到你。
由於公司產品要做行業市場,而產品與行業用戶間PC的通訊為RS232串口方式。而行業用戶那裡的PC都沒有串列口,而且行業用戶PC操作系統為Turbo Linux。怎麼辦?
辦公室內有台機器是RedHat Linux 9.0 一個是 Fedora Core 5 。就先在這兩個系統上試驗吧。這兩台電腦上各自本身就有2個RS232串口。
一、PCI轉串口卡安裝 型號NetMos Nm9835CV
1、插入PCI卡到主機
2、啟動 Linux,打開終端
3、輸入命令:#setserial /dev/ttyS0 -a (COM-1)
顯示內容:/dev/ttyS0, Line 0, UART: 16550A, Port: 0x3f8, irq: 4
Baud_base: 115200, clos_delay: 50, divisor: 0
closing_wait: 3000, closing_wait2: infinite
Flags: spd_normal skip_test
4、輸入命令:#setserial /dev/ttyS2 -a (COM-3)
顯示內容:/dev/ttyS2, Line 2, UART: unknown, Port: 0x3e8, irq: 4
Baud_base: 115200, clos_delay: 50, divisor: 0
closing_wait: 3000, closing_wait2: infinite
Flags: spd_normal skip_test
第3、4步操作的目的主要是對主機自帶串口及PCI擴展串口的區別。區別在於4顯示的內容中UART:未unknow。不過若您檢測這一步的時候 UART為16550A而不是unknow,證明你的系統已經認識了擴展的串口,不需要進一步設置,直接跳入第8步測試就可以了。
5、需要輸入命令查看一下您當前PCI檢測的狀態,以便對擴展串口進行設置
#more /proc/pci
會顯示出一堆的信息,不要因為看不懂而嚇壞了。只要看到類似於這個PCI的信息,比如:PCI communication。。。或者Board with Nm9835CV part。。。 可能就是這個卡了,主要看看它的終端是多少,即irq多少及分配的地址是多少。例如:(不一定完全一樣)
Board with Nm9835CV part irq:11
I/O at 0xc000 [0xc001] serial port 1
I/O at 0xc400 [0xc401] serial port 2
I/O at 0xc800 [0xc801] not used
I/O at 0xd000 [0xd001] not used
I/O at 0xd400 [0xd401] not used
I/O at 0xd800 [0xd801] not used
6、知道PCI擴展卡的終端為11 串口1地址為0xc000 串口2地址為0xc400..
就可以設置擴展的串口了。輸入命令:
setserial /dev/ttyS2 port 0xc000 UART 16550A
irq 11 Baud_base 115200
另一個串口也類似的這么操作
7、設置完畢後,就可以看看設置的情況了,輸入第2步的命令看看,UART是否就是16500A 而不是 unknow了,如果是16500A恭喜,可能設置好咯,如果不是那就再檢查一下吧。
8、設置好了後是不是需要測試一下是否能夠通訊呢?最好的辦法是兩台pc相連。如果pc為windows操作系統就用超級終端,是linux呢就用minicom吧
9、裝有linux的機器,首先需要設置一下監聽的串口參數,輸入命令
#minicom -s
進入界面後有個框彈出來,如果你還認識點英文單詞的話,就回知道選擇哪個的。應該是第三個吧,串口設置。
將第一行更改為 /dev/ttyS2
波特率也更改您所需要的。
更改完後保存,保存的那個菜單應該是 save ... df1
最後 exit
10、在另外一台機器發送數據,這台機器minicom界面就能夠收到信息了,成功後覺得挺有意思。另外不要把兩個COM順序弄翻了,如果弄錯了哪個是COM3 COM4測試可就不靈便咯。
㈣ 如何在linux中安裝ixgbe驅動
Intel的10G網卡(比如,82598、 82599、 x540)由ixgbe驅動支持。現代的Linux發行版已經帶有了ixgbe驅動,通過可載入模塊的方式使用。然而,有些情況你希望在你機器上的自己編譯安裝ixgbe驅動,比如,你想要體驗ixbge驅動的最新特性時。同樣,內核默認自帶的ixgbe驅動中的一個問題是不允許你自定義驅動的參數。如果你想要一個完全定製的ixgbe驅動(比如 RSS、多隊列、中斷閾值等等),你需要手動從源碼編譯ixgbe驅動。
這里是如何在Ubuntu、Debian或者它們的衍生版中下載安裝ixgbe驅動的教程。
第一步: 安裝前提
安裝之前,需要安裝匹配的內核頭文件和開發工具包。
?
1
2
$ sudo apt-get install linux-headers-$(uname -r)
$ sudo apt-get install gcc make
第二步: 編譯Ixgbe驅動
從最新的ixgbe驅動中下載源碼。
?
1
$ wget http://sourceforge.net/projects/e1000/files/ixgbe%20stable/3.23.2/ixgbe-3.23.2.tar.gz
如下編譯ixgbe驅動。
?
1
2
3
$ tar xvfvz ixgbe-3.23.2.tar.gz
$ cd ixgbe-3.23.2/src
$ make
第三步: 檢查Ixgbe驅動
編譯之後,你會看到在ixgbe-3.23.2/src目錄下創建了ixgbe.ko。這就是會載入到內核之中的ixgbe驅動。
用modinfo命令檢查內核模塊的信息。注意你需要指定模塊文件的絕對路徑(比如 ./ixgbe.ko 或者 /home/xmolo/ixgbe/ixgbe-3.23.2/src/ixgbe.ko)。輸出中會顯示ixgbe內核的版本。
?
1
$ modinfo ./ixgbe.ko
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
filename: /home/xmolo/ixgbe/ixgbe-3.23.2/src/ixgbe.ko
version: 3.23.2
license: GPL
description: Intel(R) 10 Gigabit PCI Express Network Driver
author: Intel Corporation,
srcversion: 2ADA5E537923E983FA9DAE2
alias: pci:v00008086d00001560sv*sd*bc*sc*i*
alias: pci:v00008086d00001558sv*sd*bc*sc*i*
alias: pci:v00008086d0000154Asv*sd*bc*sc*i*
alias: pci:v00008086d00001557sv*sd*bc*sc*i*
alias: pci:v00008086d0000154Fsv*sd*bc*sc*i*
alias: pci:v00008086d0000154Dsv*sd*bc*sc*i*
alias: pci:v00008086d00001528sv*sd*bc*sc*i*
alias: pci:v00008086d000010F8sv*sd*bc*sc*i*
alias: pci:v00008086d0000151Csv*sd*bc*sc*i*
alias: pci:v00008086d00001529sv*sd*bc*sc*i*
alias: pci:v00008086d0000152Asv*sd*bc*sc*i*
alias: pci:v00008086d000010F9sv*sd*bc*sc*i*
alias: pci:v00008086d00001514sv*sd*bc*sc*i*
alias: pci:v00008086d00001507sv*sd*bc*sc*i*
alias: pci:v00008086d000010FBsv*sd*bc*sc*i*
alias: pci:v00008086d00001517sv*sd*bc*sc*i*
alias: pci:v00008086d000010FCsv*sd*bc*sc*i*
alias: pci:v00008086d000010F7sv*sd*bc*sc*i*
alias: pci:v00008086d00001508sv*sd*bc*sc*i*
alias: pci:v00008086d000010DBsv*sd*bc*sc*i*
alias: pci:v00008086d000010F4sv*sd*bc*sc*i*
alias: pci:v00008086d000010E1sv*sd*bc*sc*i*
alias: pci:v00008086d000010F1sv*sd*bc*sc*i*
alias: pci:v00008086d000010ECsv*sd*bc*sc*i*
alias: pci:v00008086d000010DDsv*sd*bc*sc*i*
alias: pci:v00008086d0000150Bsv*sd*bc*sc*i*
alias: pci:v00008086d000010C8sv*sd*bc*sc*i*
alias: pci:v00008086d000010C7sv*sd*bc*sc*i*
alias: pci:v00008086d000010C6sv*sd*bc*sc*i*
alias: pci:v00008086d000010B6sv*sd*bc*sc*i*
depends: ptp,dca
vermagic: 3.11.0-19-generic SMP mod_unload modversions
parm: InterruptType:Change Interrupt Mode (0=Legacy, 1=MSI, 2=MSI-X), default IntMode (deprecated) (array of int)
parm: IntMode:Change Interrupt Mode (0=Legacy, 1=MSI, 2=MSI-X), default 2 (array of int)
parm: MQ:Disable or enable Multiple Queues, default 1 (array of int)
parm: DCA:Disable or enable Direct Cache Access, 0=disabled, 1=descriptor only, 2=descriptor and data (array of int)
parm: RSS:Number of Receive-Side Scaling Descriptor Queues, default 0=number of cpus (array of int)
parm: VMDQ:Number of Virtual Machine Device Queues: 0/1 = disable, 2-16 enable (default=8) (array of int)
parm: max_vfs:Number of Virtual Functions: 0 = disable (default), 1-63 = enable this many VFs (array of int)
parm: VEPA:VEPA Bridge Mode: 0 = VEB (default), 1 = VEPA (array of int)
parm: InterruptThrottleRate:Maximum interrupts per second, per vector, (0,1,956-488281), default 1 (array of int)
parm: LLIPort:Low Latency Interrupt TCP Port (0-65535) (array of int)
parm: LLIPush:Low Latency Interrupt on TCP Push flag (0,1) (array of int)
parm: LLISize:Low Latency Interrupt on Packet Size (0-1500) (array of int)
parm: LLIEType:Low Latency Interrupt Ethernet Protocol Type (array of int)
parm: LLIVLANP:Low Latency Interrupt on VLAN priority threshold (array of int)
parm: FdirPballoc:Flow Director packet buffer allocation level:
1 = 8k hash filters or 2k perfect filters
2 = 16k hash filters or 4k perfect filters
3 = 32k hash filters or 8k perfect filters (array of int)
parm: AtrSampleRate:Software ATR Tx packet sample rate (array of int)
parm: FCoE:Disable or enable FCoE Offload, default 1 (array of int)
parm: LRO:Large Receive Offload (0,1), default 1 = on (array of int)
parm: allow_unsupported_sfp:Allow unsupported and untested SFP+ moles on 82599 based adapters, default 0 = Disable (array of int)
第四步: 測試Ixgbe驅動
在測試新的模塊之前,如果你內核中已存在舊版本ixgbe模塊的話你需要先移除它。
?
1
$ sudo rmmod ixgbe
接著使用insmod命令插入新編譯的ixgbe模塊。確保指定一個模塊的絕對路徑。
?
1
$ sudo insmod ./ixgbe.ko
如果上面的命令成功運行,就不會顯示任何的信息。
如果你需要,你可以嘗試加入額外的參數。比如,設置RSS的隊列數量為16:
?
1
$ sudo insmod ./ixgbe.ko RSS=16
檢查/var/log/kern.log來查看ixgbe驅動是否成功激活。查看日誌中的「Intel(R) 10 Gigabit PCI Express Network Driver」。ixgbe的版本信息應該和之前的modinfo的顯示應該相同。
Sep 18 14:48:52 spongebob kernel: [684717.906254] Intel(R) 10 Gigabit PCI Express Network Driver - version 3.22.3
第五步: 安裝Ixgbe驅動
一旦你驗證新的ixgbe驅動可以成功載入,最後一步是在你的系統中安裝驅動。
?
1
$ sudo make install
ixgbe.ko 會安裝在/lib/moles//kernel/drivers/net/ethernet/intel/ixgbe 下。
從這一步起,你可以用下面的modprobe命令載入ixgbe驅動了。注意你不必再指定絕對路徑。
?
1
$ sudo modprobe ixgbe
如果你希望在啟動時載入ixgbe驅動,你可以在/etc/moles的最後加入「ixgbe」。
㈤ linux pci 驅動dma傳送數據會不會亂序
如何編寫Linux設備驅動程序 回想學習Linux操作系統已經有近一年的時間了,前前後回後,零零碎碎的一路學答習過來,也該試著寫的東西了。也算是給自己能留下一點記憶和回憶吧!由於完全是自學的,以下內容若有不當之處,還請大家多指教
㈥ linux中如何檢測設備驅動模塊是否存在
linux系統中的設備驅動是否安裝好一般檢查幾個方面:
1、系統日誌。嵌入式系統多是直接dmesg一下,看有沒有設備關鍵字相關的出錯信息(通用系統可檢查/var/log/messages文件)。
2、已載入的模塊。檢查模塊載入列表中有沒有相關設備的模塊。
lsmod
3、設備列表。檢查已載入的設備中有沒有相關設備
cat /proc/devices
4、設備入口。如果以上檢查都正常,還需要檢查設備目錄下設備入口是否已經創建
ls /dev/xxxx
如果以上檢查都正常(驅動模塊已經正常載入、設備入口存在且沒有錯誤),而設備還不能正常工作,就需要檢查設備驅動是否與晶元匹配或者驅動中的硬體資源配置是否與硬體對應了。
如下是檢查具體硬體的命令方式:
查看CPU信息:cat /proc/cpuinfo
查看板卡信息:cat /proc/pci
查看PCI信息:lspci (相比cat /proc/pci更直觀)
查看內存信息:cat /proc/meminfo
查看USB設備:cat /proc/bus/usb/devices
查看鍵盤和滑鼠:cat /proc/bus/input/devices
查看系統硬碟信息和使用情況:fdisk & disk - l & df
查看各設備的中斷請求(IRQ):cat /proc/interrupts
查看系統體系結構:uname -a
在LINUX環境開發驅動程序,首先要探測到新硬體,接下來就是開發驅動程序。
常用命令整理如下:
用硬體檢測程序kudzu探測新硬體:service kudzu start ( or restart)
查看CPU信息:cat /proc/cpuinfo
查看板卡信息:cat /proc/pci
查看PCI信息:lspci (相比cat /proc/pci更直觀)
查看內存信息:cat /proc/meminfo
查看USB設備:cat /proc/bus/usb/devices
查看鍵盤和滑鼠:cat /proc/bus/input/devices
查看系統硬碟信息和使用情況:fdisk & disk - l & df
查看各設備的中斷請求(IRQ):cat /proc/interrupts
查看系統體系結構:uname -a
dmidecode查看硬體信息,包括bios、cpu、內存等信息
dmesg | more 查看硬體信息
對於「/proc」中文件可使用文件查看命令瀏覽其內容,文件中包含系統特定信息:
Cpuinfo 主機CPU信息
Dma 主機DMA通道信息
Filesystems 文件系統信息
Interrupts 主機中斷信息
Ioprots 主機I/O埠號信息
Meninfo 主機內存信息
Version Linux內存版本信息