百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

Python3爬虫教程与示例代码

ztj100 2025-05-22 14:59 22 浏览 0 评论

以下是 Python3 编写网络爬虫的简明教程,包含基础步骤和示例代码:


一、常用工具库

  1. 请求库

O requests:简单易用的 HTTP 请求库

O aiohttp:异步 HTTP 客户端(适合高性能爬虫)

  1. 解析库

O BeautifulSoup:HTML/XML 解析库

O lxml:支持 XPath 的高性能解析库

O parsel:Scrapy 内置的选择器库

  1. 框架

O Scrapy:专业的爬虫框架

O Selenium:浏览器自动化工具(应对动态网页)


二、基础爬虫示例

示例1:使用 requests + BeautifulSoup

python

import requests

from bs4 import BeautifulSoup


# 1. 发送请求

url = 'https://example.com'

headers = {'User-Agent': 'Mozilla/5.0'} # 模拟浏览器头

response = requests.get(url, headers=headers)

response.encoding = 'utf-8' # 设置编码


# 2. 解析内容

soup = BeautifulSoup(response.text, 'html.parser')

title = soup.find('h1').text # 获取标题

links = [a['href'] for a in soup.find_all('a')] # 获取所有链接


# 3. 保存结果

with open('output.txt', 'w') as f:

f.write(f"标题: {title}\n链接: {', '.join(links)}")

示例2:使用 XPath 解析(lxml)

python

from lxml import etree

import requests

url = 'https://example.com'

html = requests.get(url).text

tree = etree.HTML(html)

# 使用XPath提取数据

results = tree.xpath('//div[@class="content"]/text()')

print(results)


三、高级技巧

  1. 处理动态内容

python

from selenium import webdriver

driver = webdriver.Chrome()

driver.get('https://dynamic-site.com')

dynamic_content = driver.find_element_by_class_name('data').text

driver.quit()

  1. 应对反爬措施

O 使用代理IP:

python

proxies = {'http': 'http://10.10.1.10:3128'}

requests.get(url, proxies=proxies)

O 随机请求头:使用 fake_useragent 库生成

O 设置请求延迟:time.sleep(random.uniform(1,3))

  1. 异步爬虫

python

import aiohttp

import asyncio


async def fetch(url):

async with aiohttp.ClientSession() as session:

async with session.get(url) as response:

return await response.text()


urls = ['https://site1.com', 'https://site2.com']

tasks = [fetch(url) for url in urls]

results = asyncio.run(asyncio.gather(*tasks))


四、注意事项

  1. 遵守规则

O 检查网站的 robots.txt(如:
https://example.com/robots.txt)

O 尊重网站设定的 Crawl-delay

  1. 异常处理

python

try:

response = requests.get(url, timeout=5)

response.raise_for_status() # 检查HTTP错误

except requests.exceptions.RequestException as e:

print(f"请求失败: {e}")

  1. 数据存储

O 文件:CSV、JSON

O 数据库:MySQL、MongoDB

O 云存储:AWS S3


五、推荐学习路径

  1. 掌握 HTTP 协议基础
  2. 学习 HTML 结构/XPath 语法
  3. 熟悉常见反爬机制及应对策略
  4. 了解数据库存储基础
  5. 学习分布式爬虫设计(Scrapy-Redis)

建议从简单静态页面开始练习,逐步过渡到复杂项目。可使用官方文档(如 Scrapy 文档)作为参考。

相关推荐

拒绝躺平,如何使用AOP的环绕通知实现分布式锁

如何在分布式环境下,像用synchronized关键字那样使用分布式锁。比如开发一个注解,叫@DistributionLock,作用于一个方法函数上,每次调方法前加锁,调完之后自动释放锁。可以利用Sp...

「解锁新姿势」 兄dei,你代码需要优化了

前言在我们平常开发过程中,由于项目时间紧张,代码可以用就好,往往会忽视代码的质量问题。甚至有些复制粘贴过来,不加以整理规范。往往导致项目后期难以维护,更别说后续接手项目的人。所以啊,我们要编写出优雅的...

消息队列核心面试点讲解(消息队列面试题)

Rocketmq消息不丢失一、前言RocketMQ可以理解成一个特殊的存储系统,这个存储系统特殊之处数据是一般只会被使用一次,这种情况下,如何保证这个被消费一次的消息不丢失是非常重要的。本文将分析Ro...

秒杀系统—4.第二版升级优化的技术文档二

大纲7.秒杀系统的秒杀活动服务实现...

SpringBoot JPA动态查询与Specification详解:从基础到高级实战

一、JPA动态查询概述1.1什么是动态查询动态查询是指根据运行时条件构建的查询,与静态查询(如@Query注解或命名查询)相对。在业务系统中,80%的查询需求都是动态的,例如电商系统中的商品筛选、订...

Java常用工具类技术文档(java常用工具类技术文档有哪些)

一、概述Java工具类(UtilityClasses)是封装了通用功能的静态方法集合,能够简化代码、提高开发效率。本文整理Java原生及常用第三方库(如ApacheCommons、GoogleG...

Guava 之Joiner 拼接字符串和Map(字符串拼接join的用法)

Guave是一个强大的的工具集合,今天给大家介绍一下,常用的拼接字符串的方法,当然JDK也有方便的拼接字符串的方式,本文主要介绍guava的,可以对比使用基本的拼接的话可以如下操作...

SpringBoot怎么整合Redis,监听Key过期事件?

一、修改Redis配置文件1、在Redis的安装目录2、找到redis.windows.conf文件,搜索“notify-keyspace-events”...

如何使用Python将多个excel文件数据快速汇总?

在数据分析和处理的过程中,Excel文件是我们经常会遇到的数据格式之一。本文将通过一个具体的示例,展示如何使用Python和Pandas库来读取、合并和处理多个Excel文件的数据,并最终生成一个包含...

利用Pandas高效处理百万级数据集,速度提升10倍的秘密武器

处理大规模数据集,尤其是百万级别的数据量,对效率的要求非常高。使用Pandas时,可以通过一些策略和技巧显著提高数据处理的速度。以下是一些关键的方法,帮助你使用Pandas高效地处理大型数据集,从而实...

Python进阶-Day 25: 数据分析基础

目标:掌握Pandas和NumPy的基本操作,学习如何分析CSV数据集并生成报告。课程内容...

Pandas 入门教程 - 第五课: 高级数据操作

在前几节课中,我们学习了如何使用Pandas进行数据操作和可视化。在这一课中,我们将进一步探索一些高级的数据操作技巧,包括数据透视、分组聚合、时间序列处理以及高级索引和切片。高级索引和切片...

原来这才是Pandas!(原来这才是薯片真正的吃法)

听到一些人说,Pandas语法太乱、太杂了,根本记不住。...

python(pandas + numpy)数据分析的基础

数据NaN值排查,统计,排序...

利用Python进行数据分组/数据透视表

1.数据分组源数据表如下所示:1.1分组键是列名分组键是列名时直接将某一列或多列的列名传给groupby()方法,groupby()方法就会按照这一列或多列进行分组。按照一列进行分组...

取消回复欢迎 发表评论: