1)透明代理(Transparent Proxy):透明代理虽然可以直接“隐藏”客户端的 IP 地址,但是还是可以从来查到客户端的 IP 地址。
2)匿名代理(Anonymous Proxy):匿名代理能提供隐藏客户端 IP 地址的功能。使用匿名代理,服务器能知道客户端使用用了代理,当无法知道客户端真实 IP 地址。
3)高匿代理(Elite Proxy 或 High Anonymity Proxy):高匿代理既能让服务器不清楚客户端是否在使用代理,也能保证服务器获取不到客户端的真实 IP 地址。
代理的选择
普通匿名代理能隐藏客户机的真实 IP,但会改变我们的请求信息,服务器端有可能会认为我们使用了代理。不过使用此种代理时,虽然被访问的网站不能知道客户端的 IP 地址,但仍然可以知道你在使用代理,当然某些能够侦测 IP 的网页仍然可以查到客户端的 IP。 而高度匿名代理不改变客户机的请求,这样在服务器看来就像有个真正的客户浏览器在访问它,这时客户的真实IP是隐藏的,服务器端不会认为我们使用了代理。 因此,爬虫程序需要使用到代理 IP 时,尽量选择普通匿名代理和高匿名代理。另外,如果要保证数据不被代理服务器知道,推荐使用 HTTPS 协议的代理。
defget_with_ip(url:str,ip:str): """带ip访问,其中ip形如 127.0.0.1:8080 访问错误时返回"" """ headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36 Edg/89.0.774.57" } proxies = { "http":ip, "https":ip, } html = "" try: html = requests.get(url,headers=headers,proxies=proxies,timeout=10).text except Exception as e: print(f"访问错误!原因是:{e}") return html
defvalidate(ip): html = get_with_ip( "https://ip.tool.chinaz.com/", ip ) if html == "": #访问错误 return"" pattern = re.compile("域名(.+)的信息") match = pattern.search(html) ifmatchisnotNone: returnmatch.group(1) else: return""
if __name__ == "__main__": ip_list = get_ip_list("https://www.89ip.cn/1") print("获取到的ip列表为:") pprint.pprint(ip_list) for each in ip_list: ip = f"{each[0]}:{each[1]}"# 拼接ip和端口 print(f"尝试使用ip[{ip}]访问……") shown_ip = validate(ip) if shown_ip != "": print(f"采用的ip地址是:{ip} 爬取后网站显示的ip地址是:{shown_ip}")