在Python中,您可以使用fake_useragent
库来模拟User-Agent。首先,您需要安装该库:
pip install fake_useragent
安装完成后,您可以在爬虫代码中使用它来随机选择一个User-Agent。以下是一个简单的示例:
from fake_useragent import UserAgent import requests # 创建一个UserAgent对象 ua = UserAgent() # 随机选择一个User-Agent user_agent = ua.random # 使用选择的User-Agent发送请求 headers = {'User-Agent': user_agent} url = 'https://example.com' response = requests.get(url, headers=headers) # 输出响应内容 print(response.text)
在这个示例中,我们首先从fake_useragent
库中导入UserAgent
类。然后,我们创建一个UserAgent
对象,并使用random
属性获取一个随机的User-Agent。接下来,我们将这个User-Agent添加到请求头中,并使用requests.get()
发送请求。最后,我们输出响应的内容。这样,您的爬虫就会像使用不同的浏览器一样访问网站,从而降低被屏蔽的风险。