非C#的文章,不过大家可以借鉴一下其中思想--用Java实现断点续传(HTTP)

用Java实现断点续传(HTTP)    

   
内容:

(一)断点续传的原理
(二)Java实现断点续传的关键几点
(三)断点续传内核的实现
关于作者

钟华 ([email protected])
2001 年 5 月

(一)断点续传的原理
其实断点续传的原理很简单,就是在Http的请求上和一般的下载有所不同而已。
打个比方,浏览器请求服务器上的一个文时,所发出的请求如下:
假设服务器域名为wwww.sjtu.edu.cn,文件名为down.zip。
GET /down.zip HTTP/1.1
Accept: image/gif, image/x-xbitmap, image/jpeg, image/pjpeg, application/vnd.ms-
excel, application/msword, application/vnd.ms-powerpoint, */*
Accept-Language: zh-cn
Accept-Encoding: gzip, deflate
User-Agent: Mozilla/4.0 (compatible; MSIE 5.01; Windows NT 5.0)
Connection: Keep-Alive

服务器收到请求后,按要求寻找请求的文件,提取文件的信息,然后返回给浏览器,返回信息如下:

200
Content-Length=106786028
Accept-Ranges=bytes
Date=Mon, 30 Apr 2001 12:56:11 GMT
ETag=W/"02ca57e173c11:95b"
Content-Type=application/octet-stream
Server=Microsoft-IIS/5.0
Last-Modified=Mon, 30 Apr 2001 12:56:11 GMT

所谓断点续传,也就是要从文件已经下载的地方开始继续下载。所以在客户端浏览器传给
Web服务器的时候要多加一条信息--从哪里开始。
下面是用自己编的一个"浏览器"来传递请求信息给Web服务器,要求从2000070字节开始。
GET /down.zip HTTP/1.0
User-Agent: NetFox
RANGE: bytes=2000070-
Accept: text/html, image/gif, image/jpeg, *; q=.2, */*; q=.2

仔细看一下就会发现多了一行RANGE: bytes=2000070-
这一行的意思就是告诉服务器down.zip这个文件从2000070字节开始传,前面的字节不用传了。
服务器收到这个请求以后,返回的信息如下:
206
Content-Length=106786028
Content-Range=bytes 2000070-106786027/106786028
Date=Mon, 30 Apr 2001 12:55:20 GMT
ETag=W/"02ca57e173c11:95b"
Content-Type=application/octet-stream
Server=Microsoft-IIS/5.0
Last-Modified=Mon, 30 Apr 2001 12:55:20 GMT

和前面服务器返回的信息比较一下,就会发现增加了一行:
Content-Range=bytes 2000070-106786027/106786028
返回的代码也改为206了,而不再是200了。

知道了以上原理,就可以进行断点续传的编程了。

(二)Java实现断点续传的关键几点

(1)用什么方法实现提交RANGE: bytes=2000070-。
当然用最原始的Socket是肯定能完成的,不过那样太费事了,其实Java的net包中提供了这种功能。代码如下:

URL url = new URL("http://www.sjtu.edu.cn/down.zip");
HttpURLConnection httpConnection = (HttpURLConnection)url.openConnection();

//设置User-Agent
httpConnection.setRequestProperty("User-Agent","NetFox");
//设置断点续传的开始位置
httpConnection.setRequestProperty("RANGE","bytes=2000070");
//获得输入流
InputStream input = httpConnection.getInputStream();

从输入流中取出的字节流就是down.zip文件从2000070开始的字节流。
大家看,其实断点续传用Java实现起来还是很简单的吧。
接下来要做的事就是怎么保存获得的流到文件中去了。

保存文件采用的方法。
我采用的是IO包中的RandAccessFile类。
操作相当简单,假设从2000070处开始保存文件,代码如下:
RandomAccess oSavedFile = new RandomAccessFile("down.zip","rw");
long nPos = 2000070;
//定位文件指针到nPos位置
oSavedFile.seek(nPos);
byte[] b = new byte[1024];
int nRead;
//从输入流中读入字节流,然后写到文件中
while((nRead=input.read(b,0,1024)) > 0)
{
oSavedFile.write(b,0,nRead);
}

怎么样,也很简单吧。
接下来要做的就是整合成一个完整的程序了。包括一系列的线程控制等等。

(三)断点续传内核的实现
主要用了6个类,包括一个测试类。
SiteFileFetch.java负责整个文件的抓取,控制内部线程(FileSplitterFetch类)。
FileSplitterFetch.java负责部分文件的抓取。
FileAccess.java负责文件的存储。
SiteInfoBean.java要抓取的文件的信息,如文件保存的目录,名字,抓取文件的URL等。
Utility.java工具类,放一些简单的方法。
TestMethod.java测试类。

下面是源程序:

/*
**SiteFileFetch.java
*/
package NetFox;
import java.io.*;
import java.net.*;

public class SiteFileFetch extends Thread {

SiteInfoBean siteInfoBean = null; //文件信息Bean
long[] nStartPos; //开始位置
long[] nEndPos; //结束位置
FileSplitterFetch[] fileSplitterFetch; //子线程对象
long nFileLength; //文件长度
boolean bFirst = true; //是否第一次取文件
boolean bStop = false; //停止标志
File tmpFile; //文件下载的临时信息
DataOutputStream output; //输出到文件的输出流

public SiteFileFetch(SiteInfoBean bean) throws IOException
{
siteInfoBean = bean;
//tmpFile = File.createTempFile ("zhong","1111",new File(bean.getSFilePath()));
tmpFile = new File(bean.getSFilePath()+File.separator + bean.getSFileName()+".info");
if(tmpFile.exists ())
{
bFirst = false;
read_nPos();
}
else
{
nStartPos = new long[bean.getNSplitter()];
nEndPos = new long[bean.getNSplitter()];
}

}

public void run()
{
//获得文件长度
//分割文件
//实例FileSplitterFetch
//启动FileSplitterFetch线程
//等待子线程返回
try{
if(bFirst)
{
nFileLength = getFileSize();
if(nFileLength == -1)
{
System.err.println("File Length is not known!");
}
else if(nFileLength == -2)
{
System.err.println("File is not access!");
}
else
{
for(int i=0;i<nStartPos.length;i++)
{
nStartPos[i] = (long)(i*(nFileLength/nStartPos.length));
}
for(int i=0;i<nEndPos.length-1;i++)
{
nEndPos[i] = nStartPos[i+1];
}
nEndPos[nEndPos.length-1] = nFileLength;
}
}

//启动子线程
fileSplitterFetch = new FileSplitterFetch[nStartPos.length];
for(int i=0;i<nStartPos.length;i++)
{
fileSplitterFetch[i] = new FileSplitterFetch(siteInfoBean.getSSiteURL(),
siteInfoBean.getSFilePath() + File.separator + siteInfoBean.getSFileName(),
nStartPos[i],nEndPos[i],i);
Utility.log("Thread " + i + " , nStartPos = " + nStartPos[i] + ", nEndPos = " + nEndPos[i]);
fileSplitterFetch[i].start();
}
// fileSplitterFetch[nPos.length-1] = new FileSplitterFetch(siteInfoBean.getSSiteURL(),
siteInfoBean.getSFilePath() + File.separator + siteInfoBean.getSFileName(),nPos[nPos.length-1],nFileLength,nPos.length-1);
// Utility.log("Thread " + (nPos.length-1) + " , nStartPos = " + nPos[nPos.length-1] + ",
nEndPos = " + nFileLength);
// fileSplitterFetch[nPos.length-1].start();

//等待子线程结束
//int count = 0;
//是否结束while循环
boolean breakWhile = false;

while(!bStop)
{
write_nPos();
Utility.sleep(500);
breakWhile = true;

for(int i=0;i<nStartPos.length;i++)
{
if(!fileSplitterFetch[i].bDownOver)
{
breakWhile = false;
break;
}
}
if(breakWhile)
break;

//count++;
//if(count>4)
// siteStop();
}

System.err.println("文件下载结束!");
}
catch(Exception e){e.printStackTrace ();}
}

//获得文件长度
public long getFileSize()
{
int nFileLength = -1;
try{
URL url = new URL(siteInfoBean.getSSiteURL());
HttpURLConnection httpConnection = (HttpURLConnection)url.openConnection ();
httpConnection.setRequestProperty("User-Agent","NetFox");

int responseCode=httpConnection.getResponseCode();
if(responseCode>=400)
{
processErrorCode(responseCode);
return -2; //-2 represent access is error
}

String sHeader;

for(int i=1;;i++)
{
//DataInputStream in = new DataInputStream(httpConnection.getInputStream ());
//Utility.log(in.readLine());
sHeader=httpConnection.getHeaderFieldKey(i);
if(sHeader!=null)
{
if(sHeader.equals("Content-Length"))
{
nFileLength = Integer.parseInt(httpConnection.getHeaderField(sHeader));
break;
}
}
else
break;
}
}
catch(IOException e){e.printStackTrace ();}
catch(Exception e){e.printStackTrace ();}

Utility.log(nFileLength);

return nFileLength;
}

//保存下载信息(文件指针位置)
private void write_nPos()
{
try{
output = new DataOutputStream(new FileOutputStream(tmpFile));
output.writeInt(nStartPos.length);
for(int i=0;i<nStartPos.length;i++)
{
// output.writeLong(nPos[i]);
output.writeLong(fileSplitterFetch[i].nStartPos);
output.writeLong(fileSplitterFetch[i].nEndPos);
}
output.close();
}
catch(IOException e){e.printStackTrace ();}
catch(Exception e){e.printStackTrace ();}
}

//读取保存的下载信息(文件指针位置)
private void read_nPos()
{
try{
DataInputStream input = new DataInputStream(new FileInputStream(tmpFile));
int nCount = input.readInt();
nStartPos = new long[nCount];
nEndPos = new long[nCount];
for(int i=0;i<nStartPos.length;i++)
{
nStartPos[i] = input.readLong();
nEndPos[i] = input.readLong();
}
input.close();
}
catch(IOException e){e.printStackTrace ();}
catch(Exception e){e.printStackTrace ();}
}

private void processErrorCode(int nErrorCode)
{
System.err.println("Error Code : " + nErrorCode);
}

//停止文件下载
public void siteStop()
{
bStop = true;
for(int i=0;i<nStartPos.length;i++)
fileSplitterFetch[i].splitterStop();

}
}
/*
**FileSplitterFetch.java
*/
package NetFox;

import java.io.*;
import java.net.*;

public class FileSplitterFetch extends Thread {

String sURL; //File URL
long nStartPos; //File Snippet Start Position
long nEndPos; //File Snippet End Position
int nThreadID; //Thread's ID
boolean bDownOver = false; //Downing is over
boolean bStop = false; //Stop identical
FileAccessI fileAccessI = null; //File Access interface

public FileSplitterFetch(String sURL,String sName,long nStart,long nEnd,int id) throws IOException
{
this.sURL = sURL;
this.nStartPos = nStart;
this.nEndPos = nEnd;
nThreadID = id;
fileAccessI = new FileAccessI(sName,nStartPos);
}

public void run()
{
while(nStartPos < nEndPos && !bStop)
{

try{
URL url = new URL(sURL);
HttpURLConnection httpConnection = (HttpURLConnection)url.openConnection ();
httpConnection.setRequestProperty("User-Agent","NetFox");
String sProperty = "bytes="+nStartPos+"-";
httpConnection.setRequestProperty("RANGE",sProperty);
Utility.log(sProperty);

InputStream input = httpConnection.getInputStream();
//logResponseHead(httpConnection);

byte[] b = new byte[1024];
int nRead;
while((nRead=input.read(b,0,1024)) > 0 && nStartPos < nEndPos && !bStop)
{
nStartPos += fileAccessI.write(b,0,nRead);
//if(nThreadID == 1)
// Utility.log("nStartPos = " + nStartPos + ", nEndPos = " + nEndPos);
}

Utility.log("Thread " + nThreadID + " is over!");
bDownOver = true;
//nPos = fileAccessI.write (b,0,nRead);
}
catch(Exception e){e.printStackTrace ();}
}
}

//打印回应的头信息
public void logResponseHead(HttpURLConnection con)
{
for(int i=1;;i++)
{
String header=con.getHeaderFieldKey(i);
if(header!=null)
//responseHeaders.put(header,httpConnection.getHeaderField(header));
Utility.log(header+" : "+con.getHeaderField(header));
else
break;
}
}

public void splitterStop()
{
bStop = true;
}

}

/*
**FileAccess.java
*/
package NetFox;
import java.io.*;

public class FileAccessI implements Serializable{

RandomAccessFile oSavedFile;
long nPos;

public FileAccessI() throws IOException
{
this("",0);
}

public FileAccessI(String sName,long nPos) throws IOException
{
oSavedFile = new RandomAccessFile(sName,"rw");
this.nPos = nPos;
oSavedFile.seek(nPos);
}

public synchronized int write(byte[] b,int nStart,int nLen)
{
int n = -1;
try{
oSavedFile.write(b,nStart,nLen);
n = nLen;
}
catch(IOException e)
{
e.printStackTrace ();
}

return n;
}

}

/*
**SiteInfoBean.java
*/
package NetFox;

public class SiteInfoBean {

private String sSiteURL; //Site's URL
private String sFilePath; //Saved File's Path
private String sFileName; //Saved File's Name
private int nSplitter; //Count of Splited Downloading File

public SiteInfoBean()
{
//default value of nSplitter is 5
this("","","",5);
}

public SiteInfoBean(String sURL,String sPath,String sName,int nSpiltter)
{
sSiteURL= sURL;
sFilePath = sPath;
sFileName = sName;
this.nSplitter = nSpiltter;

}

public String getSSiteURL()
{
return sSiteURL;
}

public void setSSiteURL(String value)
{
sSiteURL = value;
}

public String getSFilePath()
{
return sFilePath;
}

public void setSFilePath(String value)
{
sFilePath = value;
}

public String getSFileName()
{
return sFileName;
}

public void setSFileName(String value)
{
sFileName = value;
}

public int getNSplitter()
{
return nSplitter;
}

public void setNSplitter(int nCount)
{
nSplitter = nCount;
}
}

/*
**Utility.java
*/
package NetFox;

public class Utility {

public Utility()
{

}

public static void sleep(int nSecond)
{
try{
Thread.sleep(nSecond);
}
catch(Exception e)
{
e.printStackTrace ();
}
}

public static void log(String sMsg)
{
System.err.println(sMsg);
}

public static void log(int sMsg)
{
System.err.println(sMsg);
}
}

/*
**TestMethod.java
*/
package NetFox;

public class TestMethod {

public TestMethod()
{ ///xx/weblogic60b2_win.exe
try{
SiteInfoBean bean = new SiteInfoBean("http://localhost/xx/weblogic60b2_win.exe","L:\\temp","weblogic60b2_win.exe",5);
//SiteInfoBean bean = new SiteInfoBean("http://localhost:8080/down.zip","L:\\temp","weblogic60b2_win.exe",5);
SiteFileFetch fileFetch = new SiteFileFetch(bean);
fileFetch.start();
}
catch(Exception e){e.printStackTrace ();}

}

public static void main(String[] args)
{
new TestMethod();
}
}

文章,不过大家可以借鉴一下其中思想--用Java实现断点续传(HTTP)-非诚勿扰">

时间: 2016-07-02

非C#的文章,不过大家可以借鉴一下其中思想--用Java实现断点续传(HTTP)的相关文章

WordPress置顶文章与非置顶文章的列表分离

置顶文章归置顶的样式,在循环文章列表中排除置顶文章. Case1置顶列表解决方案: 在要插入置顶文章列表的地方写入一下语句:  代码如下 复制代码 <?php query_posts(array('showposts' => 1, 'post__in' => get_option('sticky_posts'), 'caller_get_posts' => 1 )); if (have_posts()) : while (have_posts()) : the_post(); ?&

搜索引擎是如何判断有价值的文章

有很多人咨询过笔者(Mr.Zhao),百度如何判断伪原创和原创?百度喜欢什么样的文章?什么样的文章比较例如获得长尾词排名?等等诸如此类的问题.面对这些问题,我常常不知如何回答.如果我给一个比较大方向一些的答案,例如要重视用户体验.要有意义等等,那么提问者会觉得我在应付他,他们往往抱怨说这些太模糊.可是我也没法再给出具体的内容,毕竟我不是百度,具体算法我又何德何能的为你们指点江山呢?   为此,我开始写这个"如果是我"系列的文章.在这一系列文章里,我假设如果是我绞尽脑汁的来为网民提供较好

如果是我 我如何判断有价值的文章

有很多人问过我,说Mr.Zhao啊,百度如何判断伪原创和原创?百度喜欢什么样的文章?什么样的文章比较例如获得长尾词排名?等等诸如此类的问题.面对这些问题,我常常不知如何回答.如果我给一个比较大方向一些的答案,例如要重视用户体验.要有意义等等,那么提问者会觉得我在应付他,他们往往抱怨说这些太模糊.可是我也没法再给出具体的内容,毕竟我不是百度,具体算法我又何德何能的为你们指点江山呢? 为此,我开始写这个"如果是我"系列的文章.在这一系列文章里,我假设如果是我绞尽脑汁的来为网民提供较好的搜索

他逼华为任正非狂奔了20年

关于任正非和华为的传奇故事已经很多很多,可千年老二的牛X就少有人关注了:与任正非打到2003年时,中兴曾一度达到华为规模的80%之强,2007年的时候把华为的净利润率从4年前的14%逼到4%!侯为贵在如此国际化的产业.与如此强悍的中外对手们打了20多年,虽然没有像华为那样强行引入IBM的IPD来脱胎换骨.没有<华为基本法>.<华为的冬天>等一系列引人注目的文化改造传播,但至今毕竟仍位居行业第一方阵.即使没有华为那么卓越顶尖的管理,但其接近卓越的优秀管理也许更值得某些企业去学习和借鉴

解读非结构化信息管理的核心

在过去的10年,我们经过了由信息匮乏到信息过量的转变.在销售额过30亿的企业,或市级以上主要政府机构,拥有的IT系统数量一般会超过10个.这些系统中的信息,包括结构化数据,也包括非结构化信息,如多格式的文档.邮件.网页等.根据调查,85%的信息是非结构化的,每三个月增加一倍.在因特网上,每天增加7百万张新网页. 知识工作者,面临着寻找信息的挑战.根据调查,知识工作者每天30%的工作时间,用于收集信息:72%的管理者认为,知识没有在他们的组织得到重复利用.从这些异构.繁杂.丰富的内容中,准确.快速

个人总结一些文章写作与投稿方面的一些技巧

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 写文章难吗?不难.但是在A5站发表文章为什么这么难呢?其实呢,也不难,只是你不了解罢了--上次写了篇搜索引擎发外链的文章,在A5里经过了两次才通过了A5的审核,通过后,很是激动,灵机一动就想结合自己在A5投稿的经验,来写篇分析A5文章审核不过的原因分析吧! 你发表的文章是原创吗 自从开始学SEO后,相信我们大家都应该经历过那些曾经自己写文章的

华为悲欣三十年:任正非批判太多利润被渠道商赚走了

任正非今年74岁了,这距离他创办华为刚好30年. 30年前,任正非在经营中被骗200万元,被国企南油集团除名,又与妻子离婚:他的事业从代理香港公司的HAX模拟交换机重新开始,即深圳的"二道贩子". 今天,华为已是年收5200亿元的巨鳄,超过BAT总和.而且,与几年前运营商业务.企业业务为主打不同,华为消费者终端业务做到了1780亿元. 然而,任正非仍在求变. 在2017年2月17日的内部会议上,任正非说,华为要抓住全球十亿未连接家庭宽带的机会,把公司销售目标推向2000亿美元. 说任正

微信官方发布了《公众号文章增加手机端抄袭举报流程》

摘要: 微信官方发布了<公众号文章增加手机端抄袭举报流程>,进一步整顿公众号内容抄袭的问题. 1.如发现有公众号存在抄袭公众号文章行为,可在手机上发起举报. 2.公众号的管理员或 微信官方发布了<公众号文章增加手机端抄袭举报流程>,进一步整顿公众号内容抄袭的问题. 1.如发现有公众号存在抄袭公众号文章行为,可在手机上发起举报. 2.公众号的管理员或运营者微信号可直接以公众号的主体身份发起举报,他人举报时需要管理员确认. 3.非公众号文章抄袭.冒名.诽谤等其他侵权行为,用电脑进入&q

影响原创文章写作思路的三个细节分享

中介交易 http://www.aliyun.com/zixun/aggregation/6858.html">SEO诊断 淘宝客 云主机 技术大厅 众所周知,网站优化过程中文章写作是每一个站长必须掌握的饿知识和技能,作为一个专业的站长,我们不仅仅要熟悉常见的推广手段和策略,最关键的一个部分尤其针对seo而言文章写作是我们必须具备的基本功,在这种情况下,很多人对于文章写作有苦难言,其实文章写作难也难说不难也非常简单关键是看自己如何去对待了,好,咱们闲话短续,进入今天主题影响原创文章写作思路