这是一个简单的Python爬虫代码示例,使用了requests和BeautifulSoup库来获取网页内容并解析:
import requests from bs4 import BeautifulSoup def get_html(url): try: response = requests.get(url) response.raise_for_status() response.encoding = response.apparent_encoding return response.text except Exception as e: print(f"获取网页失败:{e}") return None def parse_html(html): soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('h2', class_='title') # 根据网页结构选择合适的标签和类名 for title in titles: print(title.get_text()) if __name__ == "__main__": url = "https://example.com" # 替换为你要爬取的网址 html = get_html(url) if html: parse_html(html)
请注意,这个示例仅适用于特定的网页结构(这里使用了标签)。你需要根据你要爬取的网页的实际HTML结构来修改
parse_html
函数中的代码。
在使用此代码之前,请确保已经安装了requests和beautifulsoup4库。如果没有安装,可以使用以下命令安装:
pip install requests beautifulsoup4
此外,根据你要爬取的网站的robots.txt文件和使用条款,请确保你的爬虫行为符合相关规定。