qq:800819103
在线客服,实时响应qq群
在线客服,实时响应客服电话
13318873961分布式爬虫需要代理IP优化采集,因为技术人员在使用分布式爬虫,或是多进程爬虫的时候,目标一旦限制,很有可能会使用到代理IP。因此对于代理IP的寻找还是需要重视的。
做爬虫使用的代理IP一定不能是开放的,一定要找高匿私密代理IP
动态IP—企业级稳定高匿代理IP
动态IP-- 企业级稳定、高速、高匿代理IP、千万IP出口池,爬虫的不二之选。
怎么样才能最优化的使用代理IP进行数据采集呢?下面小编会提供一些思路,一般都会有这几种方式:
分布式爬虫需要代理IP优化采集
推荐:【方案一】先导入数据库,从数据库里面取IP,大概逻辑如下:
step1:在数据库里面建一个表,写一个导入脚本,每分钟请求60次API,把IP列表导入到数据库里面(接口返回的是实时可用的,百变IP会实时检测,你的检查肯定没有我们这边实时,如果接口里面没有而数据库里面有,则删除或者标记为不可用,反之则插入或者更新。)。
step2:一定是每分钟请求60次,不要每分钟3次或者每分钟5次。知道为什么吗?比如一个IP的有效期从18:00:01分开始算有效期60秒,你18:00:00来请求的时候是拿不到的,当你18:00:20来拿的时候,它只剩下40秒了,就是有可能少20秒。
step3:在数据库里面记录好 导入时间、IP、Port、过期时间、当前有多少进程在使用这个IP IP可用状态 等字段;
step4:写一个抓取脚本,抓取脚本从数据库里面读取可用IP,每个进程从数据库获取一个IP,获取一个 状态可用,使用的进程少的IP,当然也可以控制每个进程只使用一个IP,如果没有符合条件的IP,则循环Sleep 1秒等待新的IP出现。
step5:执行抓取,对结果进行判断,处理cookie等,只要出现验证码或者失败就放弃这个IP(在数据库里面标记为不可用或者直接删除,另外如果是标记为不可用的话,如果目标站只封1小时,那可以1小时以后如果接口里面又返回这个IP,那可以再标记为可用),重新换一个IP。
动态IPIP动态转发支持免提取调用。
方式一:使用动态IPIP,统一入口,支持免提取调用,设置白名单后即可使用,支持每次请求随机一个IP出口,或者多次请求使用同一个IP作为出口。
通道A:proxy.hemaip.com:8000 每次随机一个出口IP。
通道B:proxy.hemaip.com:8001~8020 这20个端口,每次请求都会固定一个出口IP,IP有效期1-5分钟。如果在请求之前想知道出口IP和剩余可用时间,可通过这个接口获取。
通道A和使用B调用方式完全一样,不用做任何额外改造,只需要在程序中控制请求端口号就行了(比如你用通道B的8001端口,然后现在想换一个IP当出口,只需要换8002就好了,不需要发送换IP的命令给我们),超级方便,机灵IP会自动切换后端出
下面是比较麻烦的方式,一般是不建议使用的
【方案二】每个进程从接口API中随机取一个IP列表进行循环使用,如果失败则那么就再调用API获取,大概逻辑如下:
step1:每个进程(或线程),从接口随机取回一批IP回来,循环尝试IP列表去抓取数据;
step2:如果访问成功,则继续抓下一条
step3:如果失败了(比如超时、出现验证码等),再从接口随机取一个IP,继续尝试。
方案二是最错误且最低效的办法,原因如下:
我们知道每个IP都是有有效期的,当你取回来一个列表的时候,比如列表里面第一个IP有效期100秒,第二个有效期80秒,第三个110秒,第四个50秒,当你尝试第一个的时候比如一直成功用了50秒,然后被封,要换IP了,继续尝试第二个,这时候第二个有效期已经还剩余30秒了,第四个已经过期了。如果你设置HTTP请求的时候连接时间超时为3秒,读取时间超时为5秒,那你将会有可能浪费3-8秒的时间,说不定这3-8秒已经可以抓取几十次了。
方案三能跑,但是小编也不是特别的建议大家用
【方案三】每个进程从接口API中随机取一个IP来使用,失败则再调用API获取,大概逻辑如下:
step1:每个进程(或线程),从接口随机取回一个IP来,用这个IP去访问资源,
step2:如果访问成功,则继续抓下一条
step3:如果失败了(比如超时、出现验证码等),再从接口随机取一个IP,继续尝试。
方案弊端:
A、压力和效率:API调取十分频繁,会对机灵IP的接口造成压力,另外你调用的时候也会耗时比如每次耗时100ms,浪费时间,压力这个目前还好,我们的API直接用Nginx读取Redis,接口性能没有问题。
B、资源竞争:比如你15个进程同时随机去取,例如我们IP池同时有30个可用,因为是随机取一个,所以不能保证两个或多个进程不取到同一个IP,这样频率高了,对方就有可能封这个IP。倒是可以调用接口的去重功能。
C、遇到被封的IP,你也无法告诉API,下次不会给你返回被封IP了。当前API去重只能保证每天不重复。隔天是有可能重复的,因为有些IP当天被封,隔天说不定就可以用了,这些阈值还是使用方自己控制比较好。
所以,尽可能做个策略,尽可能让每个进程(或线程)使用一个IP,不要多个进程使用一个IP。
以上介绍了分布式爬虫需要代理IP优化采集,还提供了几个优化的思路,仅供大家参考下的。
相关文章内容简介
1 分布式爬虫需要代理IP优化采集
分布式爬虫需要代理IP优化采集,因为技术人员在使用分布式爬虫,或是多进程爬虫的时候,目标一旦限制,很有可能会使用到代理IP。因此对于代理IP的寻找还是需要重视的。 做爬虫使用的代理IP一定不能是开放的,一定要找高匿私密代理IP 动态IP—企业级稳定高匿代理IP 动态IP--∵企业级稳定、高速、高匿代理IP、千万IP出口池,爬虫的不二之... [阅读全文]
最新标签
推荐阅读
06
2019-03
如何找到大量的IP使用?找网络IP还是代理IP软件,vps拨号
有些工作就用一个IP地址是完成不了,但是IP资源少,找不到那么多的IP可以用。如果多拉网络线路,这成本也太高了,况且还是使用同一个区域的IP池,这IP量也并不大,那么如何找到大量的IP使
19
2019-06
多账号最好用国内代理ip换ip
哪里有国内代理ip?很多人认为在玩游戏的时候是防封的,IP地址不重要。其实不然,如果同一个IP地址登录了同一款游戏的多个账号,也是有被封账号的危险哦。
01
2019-07
爬虫离不开要用到IP池
大数据时代,信息的抓取离不开Python爬虫,但是网站一般会设置反爬虫,比如限制IP,验证码等,所以Python爬虫离不开要用到IP池,用更多的IP来掩盖,那么网络爬虫哪种换IP软件好呢?现在和黑
20
2018-11
刷单是要用动态IP吗?用什么软件换IP好?
很多产品前期没有人气,于是不少商家都采用各种刷单方法,把产品的人气提升起来,但是刷单也没有那么好刷的,平台肯定会有限制的,常见的就是IP限制,那么如果需要刷单,要换IP吗?
热门文章