Java Web Crawler库
作者:互联网
我想为实验制作一个基于Java的网络爬虫.我听说如果这是你第一次使用Java制作一个Web爬虫是可行的方法.但是,我有两个重要问题.
>我的程序如何“访问”或“连接”到网页?请简要说明一下. (我理解从硬件到软件的抽象层的基础知识,这里我对Java抽象感兴趣)
>我应该使用哪些库?我想我需要一个用于连接网页的库,一个用于HTTP / HTTPS协议的库和一个用于HTML解析的库.
解决方法:
这是您的程序如何“访问”或“连接”到网页.
URL url;
InputStream is = null;
DataInputStream dis;
String line;
try {
url = new URL("https://stackoverflow.com/");
is = url.openStream(); // throws an IOException
dis = new DataInputStream(new BufferedInputStream(is));
while ((line = dis.readLine()) != null) {
System.out.println(line);
}
} catch (MalformedURLException mue) {
mue.printStackTrace();
} catch (IOException ioe) {
ioe.printStackTrace();
} finally {
try {
is.close();
} catch (IOException ioe) {
// nothing to see here
}
}
这将下载html页面的源代码.
对于HTML解析,请参阅this
标签:java,web-crawler 来源: https://codeday.me/bug/20191003/1851232.html