这是一个专供一小撮人学习Python爬虫的repo, 这里记录着每个人的算法成长历程.
我想, 很多程序员都有一本翻了没几页的Python爬虫教程, 坚持下来的原因只有一个, 没坚持下来的原因却又千千万个
- 工作忙, 没时间
- 太难了, 看不懂
- 暂时用不到, 以后再说
- ...
就这样, 很多人不超过100页就放弃了(包括我:sob:)
有句老话说得好: "一个人走的快:runner:, 一群人走得远:two_men_holding_hands:."
那么! 让我们一起来学Python爬虫吧, 一起相互监督克服懒惰!
既然大家都是拖延症患者, 那么一定要有一套强有力的措施来治这病.
一条不留情面,强而有力的规矩:
如果你想要有所学习和进步, 那么, 坚持下来吧!
作业提交方法:
首先 fork 这个项目, 每次任务我会放到章节对应目录下的markdown里, 请大家及时查看, 同时我会在微信群进行通知和Trello进行通知.
作业目录一般如下:
1-scrapy
1.1-zhihu
1.2-job
1.3-...
2-..
2.1-...
2.2-...
每个人在每一次任务下创建自己github id命名的文件夹(请保持每次id一致), 然后在里面完成任务, 如:
1-scrapy
1.1-zhihu
Akagi201
Akagi202
...
...
1.2-job
...
书写完成后, 发送pull request, 检查通过后, 即可.
== 坚持就是胜利! ==
只要你按时完成一期任务, 你就会上光荣榜, 领取一枚小星星 ⭐
这里记录的是被踢出学习小组的家伙们: 🔫