Skip to content

dst1213/wechatSpider

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 
 
 

Repository files navigation

搜狗微信基于关键词爬取相关微信公众号文章

JasonJe 2017-12-20
  • 基于Scrapy 框架

  • 利用selenium + phantomjs 进行页面渲染

  • 存取爬取的内容到MongoDB

  • 利用BeautifulSoup进行爬取免费代理网站IP,设计IP代理池和请求池

爬取IP并存入数据库

运行wechatpub目录下的getproxy.py文件,爬取IP,存入MongoDB;

根据关键词爬取文章链接

在项目目录下,键入命令:

# scrapy crawl pubinfospider

提示输入搜索关键词后键入关键词,即开始爬取,爬取的文章链接存入数据库;

根据存取的文章链接爬取文章

在项目目录下,键入命令:

# scrapy crawl postspider

爬取并存入数据库。

About

Scrapy + selenium + MongoDB 搜狗微信公众号文章查找并爬取

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages