我再用jsoup写爬虫时,想要获取页面的所有子链接代码如下:

importjava.io.File;importjava.io.IOException;importorg.jsoup.Jsoup;importorg.jsoup.no... import java.io.File;
import java.io.IOException;

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.select.Elements;
import org.jsoup.Connection.*;
public class Teste{
public static void main(String[] args){
try {
Document doc = Jsoup

.connect("http://news.sina.com.cn/")

.userAgent(
"Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.15)")

.timeout(5000)
.get();
Elements hrefs = doc.select("a[href]");
System.out.println(hrefs);

} catch (IOException e) {
e.printStackTrace();
}
}
}
运行结果如图:

但是我只想要网址,对于其他的字符都不要。例如www.hsu.cn
展开
 我来答
yangming1009
2013-11-28 · 超过14用户采纳过TA的回答
知道答主
回答量:52
采纳率:0%
帮助的人:43.1万
展开全部
这样就可以啦!!!

import java.io.IOException;

import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;

public class Teste {
public static void main(String[] args) {
try {
Document doc = Jsoup.connect("http://news.sina.com.cn/")
.userAgent("Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.15)")
.timeout(5000).get();
Elements hrefs = doc.select("a[href]");
for(Element elem:hrefs){
System.out.println(elem.attr("abs:href"));
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
推荐律师服务: 若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询

为你推荐:

下载百度知道APP,抢鲜体验
使用百度知道APP,立即抢鲜体验。你的手机镜头里或许有别人想知道的答案。
扫描二维码下载
×

类别

我们会通过消息、邮箱等方式尽快将举报结果通知您。

说明

0/200

提交
取消

辅 助

模 式