python 反爬虫程序 python网络爬虫之怎样伪装逃过反爬虫程序的方法

软件发布|下载排行|最新软件

当前位置:首页IT学院IT技术

python 反爬虫程序 python网络爬虫之怎样伪装逃过反爬虫程序的方法

Master HaKu   2021-03-28 我要评论
想了解python网络爬虫之怎样伪装逃过反爬虫程序的方法的相关内容吗,Master HaKu在本文为您仔细讲解python 反爬虫程序的相关知识和一些Code实例,欢迎阅读和指正,我们先划重点:python,反爬虫程序,python,反爬虫,python,爬虫,伪装,下面大家一起来学习吧。

有的时候,我们本来写得好好的爬虫代码,之前还运行得Ok, 一下子突然报错了。

报错信息如下:

Http 800 Internal internet error

这是因为你的对象网站设置了反爬虫程序,如果用现有的爬虫代码,会被拒绝。

之前正常的爬虫代码如下:

from urllib.request import urlopen
...
html = urlopen(scrapeUrl)
bsObj = BeautifulSoup(html.read(), "html.parser")

这个时候,需要我们给我们的爬虫代码做下伪装,

给它添加表头伪装成是来自浏览器的请求

修改后的代码如下:

import urllib.parse
import urllib.request
from bs4 import BeautifulSoup
...
req = urllib.request.Request(scrapeUrl)
req.add_header('User-Agent', 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)') 
response = urllib.request.urlopen(req) 
html = response.read()
 
bsObj = BeautifulSoup(html, "html.parser")

Ok,一切搞定,又可以继续爬了。

猜您喜欢

Copyright 2022 版权所有 软件发布 访问手机版

声明:所有软件和文章来自软件开发商或者作者 如有异议 请与本站联系 联系我们