百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术分类 > 正文

对不起,我把APP也给爬了(对不起我把你弄丢了是什么歌)

ztj100 2025-06-04 08:55 5 浏览 0 评论

最近很多小伙伴对爬取手机App和小程序感兴趣,今天本厨师将给大家呈现这道菜,供小伙伴们品尝。

相信大家都对爬虫有一定的了解,我们爬PC端时候可以打开F12去观察url的变化,那么手机的发出请求我们应该怎么拦截呢。

今天的主菜就是给大家介绍一个抓包工具Fiddler,并用它烹煮一道广州房价爬虫。

Fiddler是一个http调试工具,也仅限于拦截http协议的请求,这是它的短板之处,但是对于我们平常的练习运用也足够了,因为大多数网站都是走http协议。跟Fiddler同类型的抓包工具还有很多。


我先教大家怎么设置Fiddler。

主要三个步骤:

1、安装软件后,打开Fiddler的Tools选项,进行第一步,分别对General,HTTPS,Connections窗口进行如下设置。

把该勾上的勾上后,我们回到HTTPS这个界面,点击Actions,选择Trust,安装证书。

这时候我们的PC端的洗菜流程已经完成啦。

2、接下来我们就要设置手机端,我们既然要通过PC端拦截手机发出的请求,就要设置手机的网络跟PC是同一个。

网络下,所以第二步,我们要更改手机ip。我们先来看看你的PC端ip是多少。先打开cmd进入终端后,输入ipconfig回车。

就可以看到你的ip地址了。


这时候终于轮到你的宝贝手机出场了,熟练的连上你的wifi之后,修改你的wifi设置,点击高级选项后,分别输入你的ip和端口后保存。

3、大家是不是觉得很简单呢,别高兴太早了!最关键的一步到了,在我们完成第一、二步设置后,打开你的手机浏览器输入你的ip和端口号(例127.0.0.1:8080),回车,这时候会跳转到一个下载手机端证书的页面,下载后并信任证书后(注:某些安卓手机会要获得root权限才行),这时候,我们安装三部曲就大功告成了。

万事俱备,只欠东风,食材都清洗好了,现在我就教大家怎么利用Fiddler烹煮小程序。


抓包实战


先打开一个小程序网站,我选择的是Q房网,大家看,菜下锅后,Fiddler是不是变化了。

这就是用fiddler拦截到你的手机发出请求的网页信息了和它的链接,这个网页信息是通过json数据加载的。

然后往上看,Raw模块是获取请求头的地方。

有了这两个信息,我们的爬虫代码也就可以开始编写了。


爬虫代码


基操requests,循环页数,由于是获取的数据是json格式,我们就要利用json.loads格式化抓取的信息,才能进行一个数据提取。


url = 'https://mapi.qfang.com/wechat/api/v3_2_0/room?dataSource=GUANGZHOU&unionId=这里也是微信id&platform=wechat&bizType=SALE¤tPage={}&pageSize=20&keyword=(R)ion=&l=&s=&p=&b=&a=&r=&h=&g=&t=&o=&fromPrice=&toPrice=&unitPrice=&fromUnitPrice=&toUnitPrice='
#爬取到50页,程序就停止
for i in range(1,51):
    time.sleep(rand_seconds)
    url3 = url.format(i)
    # print(url3)
    res = session.get(url=url3, headers=headers)
    # print(res.text)
    data = json.loads(res.text)
    try:
        id_list = data['result']['list']
        # print(333,id_list)
        for i in id_list:
            id = i['id']
            # print(id)
            url2 = 'https://mapi.qfang.com/wechat/api/v3_2_0/room/detail?dataSource=GUANGZHOU&unionId=这里也是微信id&platform=wechat&id={}&bizType=SALE&userId=&accountLinkId=&top=1&origin=sale-list'.format(
                id)
            time.sleep(rand_seconds)
            try:
                requests.adapters.DEFAULT_RETRIES = 3
                res2 = session.get(url=url2, headers=headers, timeout=10)
            except requests.exceptions.ConnectionError:
                requests.adapters.DEFAULT_RETRIES = 3
                res2 = session.get(url=url2, headers=headers, timeout=10)
            except requests.exceptions.ReadTimeout:
                requests.adapters.DEFAULT_RETRIES = 3
                res2 = session.get(url=url2, headers=headers, timeout=10)
            item = {}
            res2_data = json.loads(res2.text)
            try:
                roominfo = res2_data['result']['roomInfo']
            except KeyError:
                break

爬取数据结果:

数据可视化


菜做好了,当然还要撒点香菜才能上桌啦,做个简单可视化吧,由于爬取的数据很干净,我省掉清洗数据的环节,直接上手,在各位群大佬面前献丑了。

我们先来看看该网站的广州二手房的最高价和最低价,这最高价的数字太感人了.... 这多少个0我都数不对。

import pandas as pd
import matplotlib.pyplot as plt

df = pd.read_csv(r'F:\PycharmProjects\house_spider\广州二手房.csv', encoding='gbk')
# print(df)
df = df.astype({'price': 'float64'})  #先将价格的类型转为浮点数,方便后面计算
df_max = df['price'].max()  #查看爬取的数据中房价最高的价格
df_min =df['price'].min()  #房价最低的价格
print('广州二手房最高价:%s,最低价:%s'%(df_max,df_min))
re_price = ['region', 'price']

# 分组统计数量
price_df = df[re_price]
# #根据区域价格计算区域房价均价
region_mean_price = price_df.groupby(['region'],as_index=False)['price'].agg({'mean_price':'mean'})
region_mean_price = region_mean_price.sort_values(by='mean_price')
print(region_mean_price)

#利用循环提取已经处理好的区域和它的均值
for x,y in zip(region_mean_price.region, region_mean_price.mean_price):
    plt.text(x, y,'%.0f' %y, ha='center', va= 'bottom',fontsize=11)

# 显示柱状图值
plt.bar(region_mean_price.region, region_mean_price.mean_price, width=0.8, color='rgby')
plt.show()

继续继续,我们来统计一下广州各区的房价,然后算出各个区域均值,通过groupby分组统计出region_mean_price

(原来黄埔房价都那么高了,各网站数据的差异性也会导致最终展示的结果不一样,大家可以选个大网站试试)

到此,我们这次利用工具抓包小程序网站的介绍就结束了,大家也可以试试app,原理一样。


相关推荐

拒绝躺平,如何使用AOP的环绕通知实现分布式锁

如何在分布式环境下,像用synchronized关键字那样使用分布式锁。比如开发一个注解,叫@DistributionLock,作用于一个方法函数上,每次调方法前加锁,调完之后自动释放锁。可以利用Sp...

「解锁新姿势」 兄dei,你代码需要优化了

前言在我们平常开发过程中,由于项目时间紧张,代码可以用就好,往往会忽视代码的质量问题。甚至有些复制粘贴过来,不加以整理规范。往往导致项目后期难以维护,更别说后续接手项目的人。所以啊,我们要编写出优雅的...

消息队列核心面试点讲解(消息队列面试题)

Rocketmq消息不丢失一、前言RocketMQ可以理解成一个特殊的存储系统,这个存储系统特殊之处数据是一般只会被使用一次,这种情况下,如何保证这个被消费一次的消息不丢失是非常重要的。本文将分析Ro...

秒杀系统—4.第二版升级优化的技术文档二

大纲7.秒杀系统的秒杀活动服务实现...

SpringBoot JPA动态查询与Specification详解:从基础到高级实战

一、JPA动态查询概述1.1什么是动态查询动态查询是指根据运行时条件构建的查询,与静态查询(如@Query注解或命名查询)相对。在业务系统中,80%的查询需求都是动态的,例如电商系统中的商品筛选、订...

Java常用工具类技术文档(java常用工具类技术文档有哪些)

一、概述Java工具类(UtilityClasses)是封装了通用功能的静态方法集合,能够简化代码、提高开发效率。本文整理Java原生及常用第三方库(如ApacheCommons、GoogleG...

Guava 之Joiner 拼接字符串和Map(字符串拼接join的用法)

Guave是一个强大的的工具集合,今天给大家介绍一下,常用的拼接字符串的方法,当然JDK也有方便的拼接字符串的方式,本文主要介绍guava的,可以对比使用基本的拼接的话可以如下操作...

SpringBoot怎么整合Redis,监听Key过期事件?

一、修改Redis配置文件1、在Redis的安装目录2、找到redis.windows.conf文件,搜索“notify-keyspace-events”...

如何使用Python将多个excel文件数据快速汇总?

在数据分析和处理的过程中,Excel文件是我们经常会遇到的数据格式之一。本文将通过一个具体的示例,展示如何使用Python和Pandas库来读取、合并和处理多个Excel文件的数据,并最终生成一个包含...

利用Pandas高效处理百万级数据集,速度提升10倍的秘密武器

处理大规模数据集,尤其是百万级别的数据量,对效率的要求非常高。使用Pandas时,可以通过一些策略和技巧显著提高数据处理的速度。以下是一些关键的方法,帮助你使用Pandas高效地处理大型数据集,从而实...

Python进阶-Day 25: 数据分析基础

目标:掌握Pandas和NumPy的基本操作,学习如何分析CSV数据集并生成报告。课程内容...

Pandas 入门教程 - 第五课: 高级数据操作

在前几节课中,我们学习了如何使用Pandas进行数据操作和可视化。在这一课中,我们将进一步探索一些高级的数据操作技巧,包括数据透视、分组聚合、时间序列处理以及高级索引和切片。高级索引和切片...

原来这才是Pandas!(原来这才是薯片真正的吃法)

听到一些人说,Pandas语法太乱、太杂了,根本记不住。...

python(pandas + numpy)数据分析的基础

数据NaN值排查,统计,排序...

利用Python进行数据分组/数据透视表

1.数据分组源数据表如下所示:1.1分组键是列名分组键是列名时直接将某一列或多列的列名传给groupby()方法,groupby()方法就会按照这一列或多列进行分组。按照一列进行分组...

取消回复欢迎 发表评论: