❶ hibernate查詢資料庫中的數據並累加,數據量特別大,10萬條以上,怎麼提高效率
對查詢進行優化,應盡量避免全表掃描,首先應考慮在where及orderby涉及的列上建立索引。
可以使用分頁查詢
例如:SELECT * FROM
(
SELECT A.*, ROWNUM RN
FROM (SELECT * FROM TABLE_NAME) A
WHERE ROWNUM <= 40
)
WHERE RN >= 21
應盡量避免在where子句中對欄位進行null值判斷,否則將導致引擎放棄使用索引而進行全表掃描.
在所有的存儲過程和觸發器的開始處設置SETNOCOUNTON,在結束時設置SETNOCOUNTOFF。無需在執行存儲過程和觸發器的每個語句後向客戶端發送 DONE_IN_PROC 消息。
我就想了這幾種方法 ,你還有好的,我們一起研究啊。
❷ hibernate 關系映射有什麼好處
hibernate的關系映射主要是對於資料庫中表之間的關系。例如:賬單表、客戶表。賬單表與客戶表的關系是多對一的關系。用hibernate的關系映射就不必考慮如何在程序中對應了。查找出某個客戶的時候,就可以用客戶對象點出屬於本人的賬單信息。
❸ hibernate如何避免復雜查詢,優化大數據,和批量sql語句求答案
------解決方案--------------------------------------------------------
Hibernate 是一個優秀的 ORM 框架,但不是高效的。
大數據量的查詢,以及需要使用本地資料庫語言對 SQL 進行逐步調優的應用不適合使用 Hibernate
------解決方案--------------------------------------------------------
僅僅是查詢,沒有問題。hibernate的分頁也已經針對不同的資料庫進行了優化的
比如oracle,hibernate就採用的是oracle最快的分頁方式,具體的可以去看OracleDialect源代碼
其他的資料庫也是
get或者load是獲取一條數據,這里都需要用延遲載入的
批量sql的時候,需要設置batch size,並且關閉二級緩存,同時使用flush來同步資料庫,在使用clear來清空session緩存,這樣不至於內存溢出
,hibernte文檔上有這個例子
或者用存儲過程,如果你了解hibernate你就會用他的長處,而避免其短處
------解決方案--------------------------------------------------------
hibernate的查詢緩存key是查詢語句,但是key對應的value其實是資料庫表的主鍵
當查詢被緩存後,再次調用查詢的時候,通過key找到對應的id集合,然後一個一個的去class緩存中去load
class里沒有,再去資料庫中獲取。所以這又涉及到類緩存上了,當用hibernate進行資料庫的修改和刪除等操作的時候,都會更新一二級緩存,所以查詢緩存會獲取最新的數據
------解決方案--------------------------------------------------------
❹ 35萬條記錄 hibernate 查詢 需兩秒鍾,是否達到了hibernate 的極限
樓主,35w條hibernate怎麼可能只要2秒,用資料庫你都不止,
除非你是延遲載入,只取主鍵載入,就是取出只有主鍵的空對象
__________________________________________________
還以為你35w條都查出來,sorry看錯了,如果都查出來秒數量級就做不到了,
確實20條2秒很有優化的空間
❺ 如何優化hibernate
是設定JDBC的Statement讀取數據的時候每次從資料庫中取出的記錄條數,一般設置為30、50、100。Oracle資料庫的JDBC驅動默認的Fetch
Size=15,設置Fetch
Size設置為:30、50,性能會有明顯提升,如果繼續增大,超出100,性能提升不明顯,反而會消耗內存。
即在hibernate配製文件中進行配製:
1 <property name="hibernateProperties">
2 <props>3 <propkey="hibernate.dialect">org.hibernate.dialect.Oracle9Dialect</prop>
4 <prop key="hibernate.show_sql">false</prop>
5 <!-- Create/update the database tables automatically when the JVMstarts up
6 <prop key="hibernate.hbm2ddl.auto">update</prop> -->
7 <!-- Turn batching off for better error messages underPostgreSQL
8 <prop key="hibernate.jdbc.batch_size">100</prop> -->
9 <prop key="hibernate.jdbc.batch_size">50</prop>
10 </props>
11 </property>Fetch Size設的越大,讀資料庫的次數越少,速度越快;Fetch
Size越小,讀資料庫的次數越多,速度越慢。
2、如果是超大的系統,建議生成htm文件。加快頁面提升速度。
3、不要把所有的責任推在hibernate上,對代碼進行重構,減少對資料庫的操作,盡量避免在資料庫查詢時使用in操作,以及避免遞歸查詢操作,代碼質量、系統設計的合理性決定系統性能的高低。
4、 對大數據量查詢時,慎用list()或者iterator()返回查詢結果,(1).
使用List()返回結果時,Hibernate會所有查詢結果初始化為持久化對象,結果集較大時,會佔用很多的處理時間。(2).
而
使用iterator()返回結果時,在每次調用iterator.next()返回對象並使用對象時,Hibernate才調用查詢將對應的對象初始
化,對於大數據量時,每調用一次查詢都會花費較多的時間。當結果集較大,但是含有較大量相同的數據,或者結果集不是全部都會使用時,使用
iterator()才有優勢。
5、在一對多、多對一的關系中,使用延遲載入機制,會使不少的對象在使用時方會初始化,這樣可使得節省內存空間以及減少資料庫的負荷,而且若PO中的集合沒有被使用時,就可減少互資料庫的交互從而減少處理時間。
6、對含有關聯的PO(持久化對象)時,若default-cascade="all"或者
「save-update」,新增PO時,請注意對PO中的集合的賦值操作,因為有可能使得多執行一次update操作。
7、對於大數據量新增、修改、刪除操作或者是對大數據量的查詢,與資料庫的交互次數是決定處理時間的最重要因素,減少交互的次數是提升效率的最好途徑,
所以在開發過程中,請將show_sql設置為true,深入了解Hibernate的處理過程,嘗試不同的方式,可以使得效率提升。盡可能對每個頁面的
顯示,對資料庫的操作減少到100----150條以內。越少越好。
❻ jdbc、hibernate、ibatis的區別
JDBC是由Sun公司制定的一套訪問資料庫的規范,除了DriverManager外,其他的全是介面,介面的具體實現由資料庫廠商去實現(所以用JDBC需要添加資料庫驅動包,驅動包裡面的類就是JDBC規范那些介面的實現類),這樣,程序員用JDBC操作所有實現這個規范的資料庫都是一樣的方法,只是針對不同的資料庫sql可能不同。
Hibernate的底層是由JDBC去實現的,是對JDBC的封裝,用hibernate的HQL語句,就可以不用考慮資料庫之間的差異,因為hibernate會根據配置文件裡面的dialect(資料庫方言)和ORM配置文件把HQL語句翻譯成能適應當前資料庫的sql語句,然後從底層用JDBC去執行(增加了上層的處理,所以效率比JDBC慢),並根據映射文件把相應欄位的結果封裝到對象的相應屬性中。
ibatis也是一個持久層框架,也是對JDBC的封裝,但是效率比hibernate略高,因為ibatis不是用框架去生成相應的sql,而是由程序員自己寫sql,然後底層的JDBC去執行,並通過映射文件,將SQL所需的參數,以及返回的結果欄位映射到指定 PO類,因為少了類似hibernate把HQL翻譯成SQL的過程,所以ibatis效率比hibernate更高。
在大型的項目中,尤其是大數據量的地方,一般都不用hibernate,因為用hibernate是以犧牲效率為代價的(尤其是大批量處理的時候尤為明顯),最近我做了一個大批量處理幾百萬條數據的功能,我直接繞過公司框架的API,直接從底層用JDBC去做,效率高了不少。
❼ 為什麼要使用hibernate
說說我們的選擇吧
原因有:
1. 我們是做平台的,客戶要求多種多樣,我們是需要支持多個資料庫的,Hibernate可以比較容易屏蔽資料庫的差異;
2. Hibernate採用面向對象的方式來寫SQL,也就是HQL和Criteria,在資料庫和Dao之間多了一層,資料庫的改動可以通過映射關系屏蔽部分影響。
3. 因為我們是要不斷的增加功能,偶然要做做系統重構,快速快發尤其重要,Hibernate的代碼量和改動量都要比其他框架來的少,起碼經過我們的封裝已經使得用起來是很簡單了。
4. 對於性能有影響的地方和很難用Hibernate表達的地方我們會採用JdbcTemplate,或者採用View封裝一次再map到Hibernate,採用Hibernate也不排斥其他持久層框架的存在。
5. 盡量少用One to many, Many to one等功能,可能這里不太OO,但是代碼明了,不容易出問題。
6. 我們暫時還沒有遇到幾千萬的數據量那麼大的客戶,要做到那麼大數據量的時候也可以從資料庫,系統,網路各個方面來優化。系統推到重來也不是什麼問題。
7.Hibernate的一級緩存對於長Transaction的業務復雜的代碼反而有好處,見上面的某些分析。
8. 採用緩存和靜態頁面可以消除部分性能影響,或者採用資料庫特有功能,不過取消Hibernate的二級緩存,採用Spring的緩存或者自己搞緩存。
9. 文檔多,容易解決問題,也是JPA標準的重要參考。
Hibernate不好的地方:
1. 多佔內存,因為他需要把domain對應的configuration都load到內存裡面去,多用內存是正常的,但是出現OutofMemerey肯定不是Hibernate的問題了,一般應用內存還是夠的。
2. 性能問題。Hibernate或者Ibatis也好,最終都是通過反射把ResultSet變為對應的Domain Object,跟了一下Hibernate的內部代碼,好像是用Method.invoke來調用get 和set方法的,用了Cglib或者動態代理方式,這個方式肯定是要比直接調用get和set方法要慢的。在JDK不斷優化的今天,這個差距應該會縮小。 但是Ibatais應該也是通過這個方式來做,沒有看過不太肯定。Hibernate多了一個將HQL或者Domain Object轉化為SQL的過程,這個過程也會消耗一些性能,例如字元串拼接,記錄Domain Object的關系等。
經過以上分析,可能Hibernate會給我帶來一定的性能損失,但是我可以通過其他辦法來彌補,內存就更不是問題了。但是他確實帶來了比較好的地方,因此我們會繼續用Hibernate。
所以說Hibernate適合做企業級應用,對於那種內存和性能要求都很高或者本來就用Ibatis的情況,其實可以選擇Ibatias或者JdbcTemplate的。就性能而言,
JdbcTemplate > Ibatis < Hibernate
除了緩存的作用外只說DB操作,純JDBC是最快的,因為那樣沒有任何負擔,但是代碼搞得很難看,你會這么選擇嗎?
❽ hibernate 為什麼處理大量數據的時候效率低
用hibernate自己處理確實效率不高。但你的應用不應該有那麼高的。因為hibernate做數據持久層效率是受大眾認可的。要正的要求很高,就直接committ讓資料庫去驗證,hibernate捕獲exception就行了
❾ hibernate導入大量數據時怎樣處理內存中的數據
hibernate插入大數據
1:把數據量分成幾塊(如1000條為一塊)導入,然後清除緩存(否則容易內存溢出)。
❿ 如何優化操作大數據量資料庫
下面以關系資料庫系統Informix為例,介紹改善用戶查詢計劃的方法。
1.合理使用索引
索引是資料庫中重要的數據結構,它的根本目的就是為了提高查詢效率。現在大多數的資料庫產品都採用IBM最先提出的ISAM索引結構。索引的使用要恰到好處,其使用原則如下:
●在經常進行連接,但是沒有指定為外鍵的列上建立索引,而不經常連接的欄位則由優化器自動生成索引。
●在頻繁進行排序或分組(即進行group by或order by操作)的列上建立索引。
●在條件表達式中經常用到的不同值較多的列上建立檢索,在不同值少的列上不要建立索引。比如在雇員表的「性別」列上只有「男」與「女」兩個不同值,因此就無必要建立索引。如果建立索引不但不會提高查詢效率,反而會嚴重降低更新速度。
●如果待排序的列有多個,可以在這些列上建立復合索引(pound index)。
●使用系統工具。如Informix資料庫有一個tbcheck工具,可以在可疑的索引上進行檢查。在一些資料庫伺服器上,索引可能失效或者因為頻繁操作而使得讀取效率降低,如果一個使用索引的查詢不明不白地慢下來,可以試著用tbcheck工具檢查索引的完整性,必要時進行修復。另外,當資料庫表更新大量數據後,刪除並重建索引可以提高查詢速度。
2.避免或簡化排序
應當簡化或避免對大型表進行重復的排序。當能夠利用索引自動以適當的次序產生輸出時,優化器就避免了排序的步驟。以下是一些影響因素:
●索引中不包括一個或幾個待排序的列;
●group by或order by子句中列的次序與索引的次序不一樣;
●排序的列來自不同的表。
為了避免不必要的排序,就要正確地增建索引,合理地合並資料庫表(盡管有時可能影響表的規范化,但相對於效率的提高是值得的)。如果排序不可避免,那麼應當試圖簡化它,如縮小排序的列的范圍等。
3.消除對大型錶行數據的順序存取
在嵌套查詢中,對表的順序存取對查詢效率可能產生致命的影響。比如採用順序存取策略,一個嵌套3層的查詢,如果每層都查詢1000行,那麼這個查詢就要查詢10億行數據。避免這種情況的主要方法就是對連接的列進行索引。例如,兩個表:學生表(學號、姓名、年齡……)和選課表(學號、課程號、成績)。如果兩個表要做連接,就要在「學號」這個連接欄位上建立索引。
還可以使用並集來避免順序存取。盡管在所有的檢查列上都有索引,但某些形式的where子句強迫優化器使用順序存取。下面的查詢將強迫對orders表執行順序操作:
SELECT * FROM orders WHERE (customer_num=104 AND order_num>1001) OR order_num=1008
雖然在customer_num和order_num上建有索引,但是在上面的語句中優化器還是使用順序存取路徑掃描整個表。因為這個語句要檢索的是分離的行的 *** ,所以應該改為如下語句:
SELECT * FROM orders WHERE customer_num=104 AND order_num>1001
UNION
SELECT * FROM orders WHERE order_num=1008
這樣就能利用索引路徑處理查詢。
4.避免相關子查詢
一個列的標簽同時在主查詢和where子句中的查詢中出現,那麼很可能當主查詢中的列值改變之後,子查詢必須重新查詢一次。查詢嵌套層次越多,效率越低,因此應當盡量避免子查詢。如果子查詢不可避免,那麼要在子查詢中過濾掉盡可能多的行。
5.避免困難的正規表達式
MATCHES和LIKE關鍵字支持通配符匹配,技術上叫正規表達式。但這種匹配特別耗費時間。例如:SELECT * FROM customer WHERE zipcode LIKE 「98_ _ _」
即使在zipcode欄位上建立了索引,在這種情況下也還是採用順序掃描的方式。如果把語句改為SELECT * FROM customer WHERE zipcode >「98000」,在執行查詢時就會利用索引來查詢,顯然會大大提高速度。
另外,還要避免非開始的子串。例如語句:SELECT * FROM customer WHERE zipcode[2,3]>「80」,在where子句中採用了非開始子串,因而這個語句也不會使用索引。
6.使用臨時表加速查詢
把表的一個子集進行排序並創建臨時表,有時能加速查詢。它有助於避免多重排序操作,而且在其他方面還能簡化優化器的工作。例如:
SELECT cust.name,rcvbles.balance,……other columns
FROM cust,rcvbles
WHERE cust.customer_id = rcvlbes.customer_id
AND rcvblls.balance>0
AND cust.postcode>「98000」
ORDER BY cust.name
如果這個查詢要被執行多次而不止一次,可以把所有未付款的客戶找出來放在一個臨時文件中,並按客戶的名字進行排序:
SELECT cust.name,rcvbles.balance,……other columns
FROM cust,rcvbles
WHERE cust.customer_id = rcvlbes.customer_id
AND rcvblls.balance>0
ORDER BY cust.name
INTO TEMP cust_with_balance
然後以下面的方式在臨時表中查詢:
SELECT * FROM cust_with_balance
WHERE postcode>「98000」
臨時表中的行要比主表中的行少,而且物理順序就是所要求的順序,減少了磁碟I/O,所以查詢工作量可以得到大幅減少。
注意:臨時表創建後不會反映主表的修改。在主表中數據頻繁修改的情況下,注意不要丟失數據。
7.用排序來取代非順序存取
非順序磁碟存取是最慢的操作,表現在磁碟存取臂的來回移動。SQL語句隱藏了這一情況,使得我們在寫應用程序時很容易寫出要求存取大量非順序頁的查詢。
有些時候,用資料庫的排序能力來替代非順序的存取能改進查詢。
實例分析
下面我們舉一個製造公司的例子來說明如何進行查詢優化。製造公司資料庫中包括3個表,模式如下所示:
1.part表
零件號?????零件描述????????其他列
(part_num)?(part_desc)??????(other column)
102,032???Seageat 30G disk?????……
500,049???Novel 10M neork card??……
……
2.vendor表
廠商號??????廠商名??????其他列
(vendor _num)?(vendor_name) (other column)
910,257?????Seageat Corp???……
523,045?????IBM Corp?????……
……
3.parven表
零件號?????廠商號?????零件數量
(part_num)?(vendor_num)?(part_amount)
102,032????910,257????3,450,000
234,423????321,001????4,000,000
……
下面的查詢將在這些表上定期運行,並產生關於所有零件數量的報表:
SELECT part_desc,vendor_name,part_amount
FROM part,vendor,parven
WHERE part.part_num=parven.part_num
AND parven.vendor_num = vendor.vendor_num
ORDER BY part.part_num
如果不建立索引,上述查詢代碼的開銷將十分巨大。為此,我們在零件號和廠商號上建立索引。索引的建立避免了在嵌套中反復掃描。關於表與索引的統計信息如下:
表?????行尺寸???行數量?????每頁行數量???數據頁數量
(table)?(row size)?(Row count)?(Rows/Pages)?(Data Pages)
part????150?????10,000????25???????400
Vendor???150?????1,000???? 25???????40
Parven???13????? 15,000????300?????? 50
索引?????鍵尺寸???每頁鍵數量???頁面數量
(Indexes)?(Key Size)?(Keys/Page)???(Leaf Pages)
part?????4??????500???????20
Vendor????4??????500???????2
Parven????8??????250???????60
看起來是個相對簡單的3表連接,但是其查詢開銷是很大的。通過查看系統表可以看到,在part_num上和vendor_num上有簇索引,因此索引是按照物理順序存放的。parven表沒有特定的存放次序。這些表的大小說明從緩沖頁中非順序存取的成功率很小。此語句的優化查詢規劃是:首先從part中順序讀取400頁,然後再對parven表非順序存取1萬次,每次2頁(一個索引頁、一個數據頁),總計2萬個磁碟頁,最後對vendor表非順序存取1.5萬次,合3萬個磁碟頁。可以看出在這個索引好的連接上花費的磁碟存取為5.04萬次。
建議你直接用Jdbc好了,用batch,這樣是最快的。
打開資料庫
con.Open();
讀取數據
OdbcDataReader reader = cmd.ExecuteReader();
把數據載入到臨時表
dt.Load(reader);
在使用完畢之後,一定要關閉,要不然會出問題
reader.Close();
這個問題是這樣的:
首先你要明確你的插入是正常業務需求么?如果是,那麼只能接受這樣的數據插入量。
其次你說資料庫存不下了 那麼你可以讓你的資料庫上限變大 這個你可以在資料庫裡面設置的 裡面有個資料庫文件屬性 maxsize
最後有個方法可以使用,如果你的歷史數據不會對目前業務造成很大影響 可以考慮歸檔處理 定時將不用的數據移入歷史表 或者另外一個資料庫。
注意平時對資料庫的維護 定期整理索引碎片
時間維度分區表,然後定情按照規則將屬於歷史的分區數據遷移到,歷史庫上,寫個存儲自動維護分區表。
一次性插入大量數據,只能使用循環,
如:游標,while 循環語句
下面介紹While 循環插入數據,
SQL 代碼如下:
IF OBJECT_ID('dbo.Nums') IS NOT NULL
DROP TABLE dbo.Nums;
GO
CREATE TABLE dbo.Nums(n INT NOT NULL PRIMARY KEY);
DECLARE @max AS INT, @rc AS INT;
SET @max = 5000000;
SET @rc = 1;
INSERT INTO Nums VALUES(1);
WHILE @rc * 2 <= @max
BEGIN
INSERT INTO dbo.Nums SELECT n + @rc FROM dbo.Nums;
SET @rc = @rc * 2;
END
INSERT INTO dbo.Nums SELECT n + @rc FROM dbo.Nums WHERE n + @rc <= @max;
--以上函數取自Inside SQL Server 2005: T-SQL Query一書。
INSERT dbo.Sample SELECT n, RAND(CAST(NEWID() AS BINARY(16))) FROM Nums
ini_set('max_execution_time',Ɔ');
$pdo = new PDO("mysql:host=localhost;dbname=test","root","123456");
$sql = "insert into test(name,age,state,created_time) values";
for($i=0; $i<100000; $i++){
$sql .="('zhangsan',21,1,-09-17')";
}
$sql = substr($sql,0,strlen($sql)-1);
var_mp($sql);
if($pdo -> exec($sql)){
echo "插入成功!";
echo $pdo -> lastinsertid();
}
試試吧。10萬條1分鍾多,我覺得還行
就是直接把DataSet 類型作為參數直接傳遞給服務端
WCF默認支持這么做,直接傳Datatable不行。
你看一下 「服務引用設置」中你選的 *** 類型是什麼,我選的是System.Array
字典 *** 類型是默認第一項 System.Collections.Generic.Dictionary
又是一個把自己架在火上烤的需求啊,
如果不考慮傳輸因素,可以調整wcf配置,提升傳遞的容量,如果是對象傳遞可能還要調整對象層次的深度