快捷导航

需要爬取知网文献数据(包括下载论文),然后进行数据清洗

老***  √手机认证
1. 需要爬取知网文献数据(包括下载论文),然后进行数据清洗,存入数据库,然后基于数据库做web的接口给前端,主要就是查询和一些统计计算
2. 知网文献需要在内网下载,基本没有反扒,所以需要一定时间前期驻场开发,后面定时去维护
3. 爬取某新闻网站,存入数据库
4. 1个月内完成
5. 能够将爬虫集成到crawlab平台最好
6. 后端最好使用python django开发

回复

使用道具 举报

发新帖
TA的信息
  • 会员所属: 普通会员
  • 认证信息: 邮箱认证手机认证
  • 微信访问
  • 手机APP