java爬虫 403_使用java爬虫获取网络资源403错误解决

在做爬虫的时候,有时候需要下载爬到连接的URL。

比如:String url =“

如果使用Filefile =newFile(url );

发现file处理后成了:http:\www.kaigejava.com\uplode\pdf\xxxxx.pdf

然后使用file的判断方法。提示获取不到。

那么使用java的file对象怎么获取网络资源?

代码如下:

public class FileTests {

public static void main(String args) throws Exception {

StringfileName= "d96c6dcfda2559c5865db89388d28cbf.pdf";

String fileUrl = "http://10.10.10.242:82/xxx/files/d96c6dcfda2559c5865db89388d28cbf.pdf";

String downPath = "C:\\Users\\kaigejava\\Desktop\\xss";

downUrlTxt(fileName,fileUrl,downPath);

}

public static void downUrlTxt(String fileName,String fileUrl,String downPath){

File savePath = new File(downPath);

if (!savePath.exists) {

savePath.mkdir;

}

String urlname &#

你可能感兴趣的:(java爬虫,403)