本文目錄一覽:
- 1、Java中如何高效的讀取大文件
- 2、java大文件上傳後如何判斷什麼時候下載
- 3、java 對大文件怎麼加密
- 4、解決java讀取大文件內存溢出問題,如何在不
- 5、Java 批量大文件上傳下載如何實現?
Java中如何高效的讀取大文件
讀取文件行的標準方式是在內存中讀取,Guava 和Apache Commons IO都提供了如下所示快速讀取文件行的方法:
Files.readLines(new File(path), Charsets.UTF_8); FileUtils.readLines(new File(path));
這種方法帶來的問題是文件的所有行都被存放在內存中,當文件足夠大時很快就會導致程序拋出OutOfMemoryError 異常。
java大文件上傳後如何判斷什麼時候下載
1、通過HTTP協議頭中的Content-Length字段可以知道文件的大小,可以判斷上傳的文件是否完整。
2、通過應用層協議,服務端會返回接收文件的狀態,客戶端可以根據狀態判斷文件是否完整上傳成功。
java 對大文件怎麼加密
選擇一個加密算法
輸入為bufferIn,輸出為bufferOut
循環讀取文件,讀滿緩衝區就調用加密算法,然後輸出至目標文件
不可能一次性將幾兆的文件一次性進行加密的
解決java讀取大文件內存溢出問題,如何在不
1、傳統的在內存中讀取
讀取文件行的標準方式是在內存中讀取,Guava 和Apache Commons IO都提供了如下所示快速讀取文件行的方法:
這種方法帶來的問題是文件的所有行都被存放在內存中,當文件足夠大時很快就會導致程序拋出OutOfMemoryError 異常。
例如:讀取一個大約1G的文件:
這種方式開始時只佔用很少的內存:(大約消耗了0Mb內存)
然而,當文件全部讀到內存中後,我們最後可以看到(大約消耗了2GB內存):
這意味這一過程大約耗費了2.1GB的內存——原因很簡單:現在文件的所有行都被存儲在內存中。
把文件所有的內容都放在內存中很快會耗盡可用內存——不論實際可用內存有多大,這點是顯而易見的。
此外,我們通常不需要把文件的所有行一次性地放入內存中——相反,我們只需要遍歷文件的每一行,然後做相應的處理,處理完之後把它扔掉。所以,這正是我們將要做的——通過行迭代,而不是把所有行都放在內存中。
2、文件流
現在讓我們看下這種解決方案——我們將使用Java.util.Scanner類掃描文件的內容,一行一行連續地讀取:
這種方案將會遍歷文件中的所有行——允許對每一行進行處理,而不保持對它的引用。總之沒有把它們存放在內存中:(大約消耗了150MB內存)
3、Apache Commons IO流
同樣也可以使用Commons IO庫實現,利用該庫提供的自定義LineIterator:
由於整個文件不是全部存放在內存中,這也就導致相當保守的內存消耗:(大約消耗了150MB內存)
4、結論
這篇短文介紹了如何在不重複讀取與不耗盡內存的情況下處理大文件——這為大文件的處理提供了一個有用的解決辦法。
Java 批量大文件上傳下載如何實現?
解決這種大文件上傳不太可能用web上傳的方式,只有自己開發插件或是當門客戶端上傳,或者用現有的ftp等。
1)開發一個web插件。用於上傳文件。
2)開發一個FTP工具,不用web上傳。
3)用現有的FTP工具。
下面是幾款不錯的插件,你可以試試:
1)Jquery的uploadify插件。具體使用。你可以看幫助文檔。
原創文章,作者:小藍,如若轉載,請註明出處:https://www.506064.com/zh-hant/n/303491.html