我再用jsoup写爬虫时,想要获取页面的所有子链接代码如下:
importjava.io.File;importjava.io.IOException;importorg.jsoup.Jsoup;importorg.jsoup.no...
import java.io.File;
import java.io.IOException;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.select.Elements;
import org.jsoup.Connection.*;
public class Teste{
public static void main(String[] args){
try {
Document doc = Jsoup
.connect("http://news.sina.com.cn/")
.userAgent(
"Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.15)")
.timeout(5000)
.get();
Elements hrefs = doc.select("a[href]");
System.out.println(hrefs);
} catch (IOException e) {
e.printStackTrace();
}
}
}
运行结果如图:
但是我只想要网址,对于其他的字符都不要。例如www.hsu.cn 展开
import java.io.IOException;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.select.Elements;
import org.jsoup.Connection.*;
public class Teste{
public static void main(String[] args){
try {
Document doc = Jsoup
.connect("http://news.sina.com.cn/")
.userAgent(
"Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.15)")
.timeout(5000)
.get();
Elements hrefs = doc.select("a[href]");
System.out.println(hrefs);
} catch (IOException e) {
e.printStackTrace();
}
}
}
运行结果如图:
但是我只想要网址,对于其他的字符都不要。例如www.hsu.cn 展开
1个回答
展开全部
这样就可以啦!!!
import java.io.IOException;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class Teste {
public static void main(String[] args) {
try {
Document doc = Jsoup.connect("http://news.sina.com.cn/")
.userAgent("Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.15)")
.timeout(5000).get();
Elements hrefs = doc.select("a[href]");
for(Element elem:hrefs){
System.out.println(elem.attr("abs:href"));
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
import java.io.IOException;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.nodes.Element;
import org.jsoup.select.Elements;
public class Teste {
public static void main(String[] args) {
try {
Document doc = Jsoup.connect("http://news.sina.com.cn/")
.userAgent("Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9.2.15)")
.timeout(5000).get();
Elements hrefs = doc.select("a[href]");
for(Element elem:hrefs){
System.out.println(elem.attr("abs:href"));
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询