
文章插图
启动ProxyApi.py后即可在浏览器中使用接口获取代理,一下是浏览器中的截图:
index页面:

文章插图
get页面:

文章插图
get_all页面:
【写爬虫时,IP经常被封?那么如何正确的搭建属于自己的IP代理池】私信小编01 领取完整项目代码!

文章插图
爬虫中使用,如果要在爬虫代码中使用的话,可以将此api封装成函数直接使用,例如:
import requestsdef get_proxy(): return requests.get("http://127.0.0.1:5000/get/").contentdef delete_proxy(proxy): requests.get("http://127.0.0.1:5000/delete/?proxy={}".format(proxy))# your spider codedef spider(): # .... requests.get('https://www.example.com', proxies={"http": "http://{}".format(get_proxy)}) # ....6、最后
时间仓促,功能和代码都比较简陋,以后有时间再改进 。喜欢的在github上给个star 。感谢
推荐阅读
- 客厅暖气片用什么遮挡,暖气片使用时可以盖东西嘛
- 淘宝店怎么暂时关闭店铺 淘宝店铺如何闭店
- 淘宝开店怎样描述我的店铺 淘宝开店宝贝描述怎么写
- 外星有生物存在吗 已发现的外星生物
- 网站优化更新之伪原创内容书写方式
- 网站从0到10万流量复盘
- 2021西安城运会时间 西安最近为什么经常停电2021
- 薏米保质期多久
- 榴莲放一夜会不会有事?
- 芹菜怎么保存时间长
