在Python中,使用多线程进行网络爬虫时,可以通过设置线程的timeout
参数来实现超时处理。以下是一个简单的示例,展示了如何使用concurrent.futures.ThreadPoolExecutor
和requests
库进行超时处理:
import requests from concurrent.futures import ThreadPoolExecutor, as_completed def fetch(url, timeout): try: response = requests.get(url, timeout=timeout) response.raise_for_status() # 如果响应状态码不是200,将抛出异常 return response.text except requests.exceptions.Timeout: print(f"请求超时: {url}") return None except requests.exceptions.RequestException as e: print(f"请求异常: {url}, 错误信息: {e}") return None def main(): urls = [ "https://www.example.com", "https://www.example2.com", "https://www.example3.com", # 更多URL... ] timeout = 5 # 设置超时时间(秒) max_workers = 5 # 设置最大线程数 with ThreadPoolExecutor(max_workers=max_workers) as executor: future_to_url = {executor.submit(fetch, url, timeout): url for url in urls} for future in as_completed(future_to_url): url = future_to_url[future] try: data = future.result() if data: print(f"成功获取数据: {url}") else: print(f"未能获取数据: {url}") except Exception as e: print(f"处理异常: {url}, 错误信息: {e}") if __name__ == "__main__": main()
在这个示例中,我们定义了一个fetch
函数,它接受一个URL和一个超时时间作为参数。我们使用requests.get
方法发起请求,并设置timeout
参数。如果请求超时,将捕获requests.exceptions.Timeout
异常并打印一条消息。如果发生其他请求异常,将捕获requests.exceptions.RequestException
异常并打印一条消息。
在main
函数中,我们创建一个ThreadPoolExecutor
实例,并使用submit
方法提交fetch
任务。我们使用as_completed
函数来迭代已完成的任务,并处理结果或异常。