Skip to content

dangsh/hive

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 

Repository files navigation

hive (虫巢)

概述

这是一个 我个人用于练习python爬虫的项目:
1.用于自己练习
2.可供大家参考

环境依赖

python 3.6.2

以下为可选:

scrapy
requests
bs4
pandas
MongoDB
MySQL 5.7

部署步骤

  1. 安装python3.6.2
  2. 通过pip安装 scrapy , requests , bs4 , pymysql 等模块

目录结构描述

├── beautiSoupSpider // bs4爬虫
├── scrapySpider // scrapy爬虫
├── newSpider // 使用requests完成的其它功能
└── README.md // 帮助文档

V0.0.1 版本内容 beautiSoupSpider

  1. qidainTop500
    用于爬取起点月票榜前500名的,书名,作者,类型,简介,更新,书籍url
  2. doubanTop250
    用于爬取豆瓣电影榜前250名的,影片名字,导演,评分,评价人数 等信息已经初步完成
  3. doubanBook
    用于爬取豆瓣图书榜前250名的,书籍名字,作者,评分,评价人数 等信息已经初步完成
  4. lagou
    目前仅完成了单独python类工作的爬取,正在进行改良,以抓取全部的类型。还需要学习怎么应对反爬虫的方法
  5. lagouPlusP
    在lagou的基础上升级了,用于爬取所有工作的信息,不只是python工作的信息是一只大型的爬虫,
    但是还需要再进行优化来提高速度,因为上万条数据需要的时间太久之后会学习分布式爬虫,使用代理池,等方法进行优化
    lagouPlusP.xlsx文件储存了简单测试的结果,gongzuo.xlsx储存了所有的(315条)工作类型网址和名称
    5.1 经过改良之后:
    理论上应该可以爬取到整个网站15000条左右的招聘信息
    进行了简单的测试,爬取到了3000多条数据储存在 lagouPlusp.xlsx文件之中
    在之后还会对这个爬虫进行一些改良

V0.0.2 版本内容 scrapySpider

  1. First
    利用scrapy框架重写了拉钩爬虫,极大程度上提高了性能十秒左右可以爬取到4000条数据
    并且做了简单的反反爬虫处理还会进行一些升级
  2. First
    升级了First的功能,添加了反反爬虫,20分钟左右爬取到了8万条数据.速度感人,并且没有被屏蔽
    添加了一个honey文件夹,存储爬取到的数据,以后数据分析可以使用
  3. xxx
    用于练习middlewares 和 webdriver PhantomJS 爬取动态数据
  4. mongoTest
    测试将爬取的数据存储在MongoDB中,学习MongoDB的用法
  5. company
    获取黄页上软件行业中的信息,企业名称,类型,法人信息等。实现了大部分功能 2017 11 28
    将数据放入MongoDB中,练习MongoDB的使用
    再次更新后添加了换页的操作,可以获得所有页数上的数据,爬虫基本完成了
    将数据存入了MongoDB中,但是为了方便查看又运行了一次,放入json文件,3700余条数据
    2017 12 1
  6. KrSpider
    使用chromeDriver模拟浏览器操作,爬取36kr的实时资讯
  7. companyP
    改进爬虫,爬取整个网站的信息
  8. weibo
    目标是爬取所有微博用户的信息!!
    现在已经成功拿到了一些数据,但是由于请求过于频繁,被封了ip。
    使用了http代理,user-Agent ,cookie 但是还是不行。
    明天继续! 2018-2-10
    事实上发现自己犯了一个很sb的错误,解决了BUG,明天爬取下一层的信息2018-2-10
    爬了8w条用户id,用户名,有一些http代理被屏蔽了,下次会增加ip代理的数量和质量进行爬取
    最后一层用户具体信息还没有爬,等有了高质量的代理,再进行大量数据的爬取
    2018-2-11
  9. bilibili
    原本目标是爬取bilibili的所有用户的mid,
    突然恍悟这是一个伪需求,因为bilibili的用户是从1开始的
    bilibili约有2 5700 0000位用户
    直接拼接就行了 https://space.bilibili.com/257000000/#/
    下一步是取得信息
  10. ruleTest
    使用scrpay的rule功能。一个小demo爬取豆瓣top250
  11. fenbu
    使用scrapy-redis的分布式爬虫功能
  12. xunying_redis
    一个网上的demo , 我用来测试scrapy-redis
  13. huicong
    使用scrapy-redis的分布式爬虫,爬取hc360的商品信息,并将结果存入 mongo 或 hbase中,由于服务器内存只有4G,redis被爆掉了,所以又改进了一个不是分布式的爬虫。
    数据存入hbase中
  14. huangye88
    包含了两个爬虫,一个爬取黄页88的商品url,另一个获取黄页88的商品信息并存入mongo
    爬取了2000w数据左右
  15. huangye88_Company
    爬取黄页88的企业信息,一切进行的很顺利。直到最后发现企业的id也是按照顺序来的,又白做了。就当做练习了。改了一下,变成了很简单的爬虫。需要注意按顺序遍历,有的公司有自定义域名,会直接跳转,不需要特殊处理,但是在保存的时候可以使用response.url 来进行保存。
  16. huicong_com
    爬取hc360的企业信息。
  17. huicong_goods
    定时同步爬取慧聪新发布的商品
  18. ali
    获取1688.com的店铺id,商品id
  19. ali_F
    获取1688.com的商品详情,使用之前获取到的商品id
  20. huicong_goods_geturl
    由于#17爬虫的效率较低,单机爬取一天只有3w条左右数据,不满足需求,所以使用scrapy_redis重构为分布式爬虫,这个是分布式爬虫的第一部分,用于获取url。
  21. huicong_goods_fenbu
    这是分布式爬虫的第二部分,用于爬取并选择页面信息。
  22. ali_geturl
    阿里商品爬虫也设计为分布式爬虫,这一部分用于获取url
  23. ali_fenbu
    阿里商品爬虫的工作端,爬取页面中的信息

V0.0.3 版本内容 newSpider

  1. bilibili
    请求接口,获取bilibili直播的弹幕内容,简单实现
  2. novel
    全站爬虫,爬取全书网所有小说信息及内容并入库
    spider2 更新了spider,可以获取全站的数据,并且保存到数据库
    2017 12 25
  3. jd
    使用splinter,模拟登录jd,秒杀商品
  4. weibo
    使用splinter,模拟登录weibo,自动转发微博
  5. csdn
    使用selenuim,模拟浏览csdn博客,使用ip代理。IP代理从数据库中获得。
    更新了一个geturl的简单爬虫,爬取自己博客的url,不需要手动输入了,每次随机取出
    2018-2-10
  6. fenbu
    利用redis完成分布式爬虫,爬取豆瓣电影top250
  7. images
    使用requests下载壁纸网站的图片资源,实现搜索并下载图片
    2018 2 3
    使用多线程优化了imageS2爬虫,极大程度上提高了爬取速度
    2018 2 8
  8. lottery
    爬了双色球有史以来的中将号码,并且使用pandas处理,matplotlib绘图,
    找出中奖率最高的号码是 01 08 14 20 22 26 + 12
  9. stock
    抓取股票信息,用pandas处理之后存入mysql

from mac test

Releases

No releases published

Packages

No packages published