JobPlus知识库 IT 软件开发 文章
cockroach 爬虫:又一个 java 爬虫实现

依赖

  • java8 程序中用到了一些 java8 的新特性
  • maven

cd cockroach

git install

然后新建一个 maven 项目,在 pom 文件中引入

<dependency>    <groupId>com.zhangyingwei.cockroach</groupId>    <artifactId>cockroach</artifactId>    <version>1.0-Alpha</version> </dependency>

在项目中新建一个测试类 App.java 并新建 main 方法。

实例

public static void main(String[] args){    CockroachConfig config = new CockroachConfig()                    .setAppName("我是一个小强")                    .setThread(2); //爬虫线程数    CockroachContext context = new CockroachContext(config);    TaskQueue queue = TaskQueue.of();    context.start(queue);        // 以上就是一个完整的爬虫,下边的代码相当于一个生产者,往队列里边写任务,一旦写入任务,爬虫就会对任务进行爬取    new Thread(() -> {        int i = 0;        while(true){            i++;            try {                Thread.sleep(1000);                String url = "http://www.xicidaili.com/wt/"+i;                System.out.println(url);                queue.push(new Task(url));            } catch (InterruptedException e) {                e.printStackTrace();            }            if (i > 1000) {                break;            }        }    }).start(); }灵活

那灵活又体现在什么方面呢

  • 可以自定义 http 客户端(可选,默认使用 okhttp3)
  • 可以自定义结果的处理 (可选,默认使用打印处理器)

自定义 http 客户端

首先我们尝试一下自定义客户端

public class SelfHttpClient implements HttpClient {       public HttpClient setProxy(HttpProxy proxy){            //设置代理实现方法       }       public TaskResponse doGet(Task task) throws Exception{            // get 请求实现方法       }         public HttpClient proxy(){            // 应用代理到 http 客户端 方法       }         public TaskResponse doPost(Task task) throws Exception{            // post 请求实现方法       }         public HttpClient setCookie(String cookie){            // 设置 cookie 实现方法       }         public HttpClient setHttpHeader(Map<String, String> httpHeader){            // 设置 header 实现方法       } }

应用自定义 http 客户端到爬虫

CockroachConfig config = new CockroachConfig()    .setAppName("我是一个小强")    .setThread(2) //爬虫线程数    .setHttpClient(SelfHttpClient.class)

自定义结果处理类

自定义结果处理类

public class SelfStore implements IStore {    @Override    public void store(TaskResponse response) {        System.out.println(response.getContent());    } }

这里简单的将结果打印了出来,在实际应用中,我们可以保存到数据库或者保存到文件中等等。值得一说的是,如果结果是 html 网页文本的话,我们还提供了 select("css选择器") 来对结果文本进行处理。

应用自定义 store 客户端到爬虫

CockroachConfig config = new CockroachConfig()    .setAppName("我是一个小强")    .setThread(2) //爬虫线程数    .setHttpClient(SelfHttpClient.class)    .setStore(SelfStore.class);

自定义错误处理类

当 http 请求网页出现错误的时候会统一定位到错误处理类,如果没有自定义错误处理类,系统会默认使用 DefaultTaskErrorHandler ,此处理类会吧错误信息打印出来。具体实现代码如下。

public class DefaultTaskErrorHandler implements ITaskErrorHandler {    private Logger logger = Logger.getLogger(DefaultTaskErrorHandler.class);    @Override    public void error(Task task,String message) {        logger.info("task error: "+message);    } }

如果需要自定义错误处理类,可以仿照以上代码,实现 ITaskErrorHandler 接口,在 error 方法中实现自己的处理逻辑。

在自定义错误处理类之后,我们需要把自定义类应用到爬虫。

CockroachConfig config = new CockroachConfig()    .setAppName("我是一个小强")    .setThread(2) //爬虫线程数    .setHttpClient(SelfHttpClient.class)    .setStore(SelfStore.class)    .setTaskErrorHandler(SelfTaskErrorHandler.class);健壮

说到健壮,这里主要体现在以下几个方面:

应对IP封锁

这里我们使用动态代理来解决这个问题。

动态代理的使用

CockroachConfig config = new CockroachConfig()    .setAppName("我是一个小强")    .setThread(2) //爬虫线程数    .setHttpClient(SelfHttpClient.class)    .setProxys("100.100.100.100:8888,101.101.101.101:8888")

如上所示,我们可以设置若干个代理 ip,最终将所有代理 ip 生成一个代理池,在爬虫请求之前,我们会从代理池中随机抽取一个 ip 做代理。

应对 http 请求中的 user-agent 问题

程序中实现了一个 user-agent 池,每次请求都会随机取出一个 user-agent 使用,目前在程序中集成了 17 种 user-agent,后续会考虑把这块开放出来到配置中,自定义配置(有没有意义呢?)。

程序中的异常处理问题

目前在异常处理这块,本身也不是非常擅长,已经尽力把异常控制在一个可控的范围内,程序中定义了很多自定义异常,这里没有什么发言权,就不细说了,各位要是有意见建议,欢迎拍砖。

所谓深度爬取

程序中并没有现成的深度爬取实现,是因为一般情况下我并不觉得深度爬取有什么卵用,但是也不是没有为深度爬取留出来一席之地。我们可以自己提取出页面中的链接并加入到任务队列中。以达到深度爬取的效果。

public class DemoStore implements IStore {    private String id = NameUtils.name(DemoStore.class);    public DemoStore() throws IOException {}    @Override    public void store(TaskResponse response) throws IOException {        List<String> urls = response.select("a").stream().map(element -> element.attr("href")).collect(Collectors.toList());        try {            response.getQueue().push(urls);        } catch (Exception e) {            e.printStackTrace();        }    } }关于分布式,我有话说

现在网上是个爬虫就要搞一下分布式,这令我很不爽。

实际上我看过几个所谓的分布式爬虫源码,他们所谓的分布式,连伪分布式都算不上!!!使用个 redis 做消息中间件就分布式了吗? 这就是所谓的分布式??这根本就不是分布式,本来我也准备使用 redis 做消息中间件来装个分布式的 B,但是写了一半忽然觉得有点恶心,遂删除了代码,还程序一个清静,也还我自己一个安心。

分布式这个坑肯定是要挖的!!!

所以,我的分布式将会包括:

  • 分布式消息中间件(有可能会使用 redis 或者自己实现一个; 为了还程序一个清静,最有可能会自己实现一个)
  • 分布式任务调度
  • 分布式分布式容错机制
  • 分布式事务
  • 状态监控


如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!

¥ 打赏支持
275人赞 举报
分享到
用户评价(0)

暂无评价,你也可以发布评价哦:)

扫码APP

扫描使用APP

扫码使用

扫描使用小程序