Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

biubiuww/spider

Repository files navigation

废话连篇

爬虫自给自足

使用Python3完成

注:爬虫大多具有时效性,所以早期上传的不一定能用

这个readme我也是写了又删,删了又写。曾经一度不想更新(害,主要是懒)

现在更新这篇也是单纯的因为太闲了。

依赖包

有的可能需要以下包,加粗表示必须滴(技术太菜,只能依赖这些包来搞一搞)

  • requests

  • Beautifulsoup4

  • pymongo

  • fake_UserAgent

  • pymysql

目录

  • 1024: 数字社区的图片

  • baiduMap: 简单调用百度地图的api完成区域类的信息检索,需要用到开发账号

  • cmanuf:机械工业出版社的pdf下载?烂尾,bug太多,不修了

  • (削除) novel:盗版小说的爬虫...存储到数据库中 (削除ここまで)

  • qicai:七彩英语(英文原著)的PDF下载

  • umei: 批量下载图片

  • kuaishou: 关键词:快手、无水印、解析、下载

  • (削除) yasee1:网站倒闭了 (削除ここまで)

  • proxy_pool:代理池源自jhao104/proxy_pool

  • tuao8: 一个小姐姐的图片下载爬虫

  • 91user: 传入UID解析视频m3u8播放链接

  • cableav.py 一个神奇的网站。传入列表页,解析M3U8地址并存储在本地

About

a crawler

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 2

Languages

AltStyle によって変換されたページ (->オリジナル) /