Skip to content

DianaCody/Spider_python

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

8 Commits
 
 
 
 
 
 
 
 

Repository files navigation

网易微博爬虫(python版)


163 Tweet Crawler (python)

网易微博爬虫

实现自定义输入关键词,指定要爬取的页面数据,根据关键词提取页面中的微博信息数据。
  • 自定义搜索关键字
  • 自定义爬取页面数目
  • 非登录,爬取当天微博信息数据存储于本地文件
  • 解析微博页面获取微博文本内容信息
  • 软件为exe程序,无python环境也可运行

1.软件功能

实时爬取微博信息数据,数据源 http://t.163.com/tag/yourkey/


2.软件演示

1.自定义关键词、抓取页面数量

file-list

2.爬取结果显示微博文本内容

file-list


3.软件下载

软件地址: https://github.com/DianaCody/Spider_python/tree/master/Tweet163_Crawler/release

也可以在这里下载:点击下载

http://download.csdn.net/detail/dianacody/8001441

About

163TweetCrawler, crawl tweet html pages according custom searching words and show tweet contents. (python)

Resources

Stars

Watchers

Forks

Packages

No packages published

Languages