Python爬虫之爬取某音乐平台(付费)歌曲
myzbx 2024-12-28 14:20 18 浏览
无意间在某站上看到一个视频,便很有兴趣地实践了起来。本篇文章仅仅是作为个人学习笔记所著,如若有所不足之处,欢迎指正。
废话不多说,先上源代码及效果图(如若对你有帮助,请阅读完本文):
网页链接:https://music.163.com/#/playlist?id=5087806619
效果图:
源代码:
# -*- codeing=utf-8 -*-
# @Time:2021/7/22 20:47
# @Atuhor:@lwtyh
# @File:批量下载.py
# @Software:PyCharm
#导入框架(库,模块) pip install xxxx
import requests
from lxml import etree
# http://music.163.com/song/media/outer/url?id=
# 1、确定网址 真实地址在Network----Doc
url = 'https://music.163.com/playlist?id=5087806619'
base_url = 'http://music.163.com/song/media/outer/url?id='
# 2、请求(requests) 图片,视频,音频 content 字符串 text
html_str = requests.get(url).text
# print(type(html_str)) # 字符串类型
# 3、筛选数据xpath(标签语言)
# //a[contains(@href,'/song?')]/@href
result = etree.HTML(html_str) # 转换类型
# print(type(result))
song_ids = result.xpath('//a[contains(@href,"/song?")]/@href') # 歌曲id
song_names = result.xpath('//a[contains(@href,"/song?")]/text()') # 歌名
# print(song_ids)
# print(song_names) #列表
# 对列表进行解压
i = 0 # 按顺序来
for song_id,song_name in zip(song_ids,song_names):
# print(song_id)
# print(song_name)
count_id = song_id.strip('/song?id=') # 去掉/song?id=
# print(count_id)
# 过滤含有“$”符号
if ('#39; in count_id) == False:
# print(count_id)
song_url = base_url + count_id # 拼接url
# print(song_url)
i += 1
mp3 = requests.get(song_url).content
# 4、保存数据
with open('./yinyue/{}.{}.mp3'.format(i,song_name),'wb') as file:
file.write(mp3)
目的:
一张截图,请自行分析:
这是一张再熟悉不过的图片了,想要获取本页面这些音乐,方法很多,如APP内自行下载啥的,但是,本次我想利用所学到的一点皮毛进行下载。
我们都知道,对于网页上的音乐在进行下载时,经常会弹出如下页面:
好好的下载一首歌曲,非要弄得这么麻烦。甚至,有些音乐在下载了软件后,需要付费或者VIP,让人很是苦恼。更严重者,好不容易下载好了,却发现格式不对等种种情况,让人崩溃。
为此我们可以很好地通过简单的爬虫解决以上问题。
对网页进行分析:
1. 在一开始,本人给出了本网页的链接:https://music.163.com/#/playlist?id=5087806619但是细心的小伙伴会发现,在代码中所使用的的网址并非是这个:
url = 'https://music.163.com/playlist?id=5087806619'
这是因为我们所请求的网址并非是浏览器地址栏上的网址,通过这张截图,很清晰地发现我们所请求的网址是哪个了。(这是一个很重要的点,必须学会分析。)
2. 通过对每首歌曲打开,进行网页源代码分析不难发现,本网页的10首歌曲都有一个共同的特点:即https://music.163.com/#/song?id=1475436266
前面的网址为 https://music.163.com/#/song?id= 加每首歌曲的 id 好,这很简单。
3. 然而,我们永远想得过于简单了,到目前为止,我们仅仅是找到了些许规律,但是要真正下载到每一首歌曲,还遥不可及。
因为我们进行了这么久的分析,并没有找到歌曲的真正链接。
通过对这些内容的查找,我们是可以说,根本就无法找到音乐文件(MPEG、MP3、MPEG-4、MIDI、WMA、M4A等)。
那是我们到现在为止还没有请求音乐,而当我们在进行点击播放时会发现如下图所示(与上图进行比较)发现:
- 该网页的请求数量由原来的167一下增加至192,这就证明,当我们在进行播放音乐时,该网页又重新进行了对网页的请求。
- 其次,通过重新查找发现(只需查看后面新的内容)这次有了一些 .m4a 文件。
- 当点击这些文件打开时会发现,有一个新的 Request URL:,当你将该网址复制在新的网页下进行打开,会出现如下图所示(打开时浏览器会自动进行下载该音乐):
或者: 像下图所示,会出现该音频,当你浏览器跟迅雷下载器所绑定,会立马弹出迅雷界面,进行该音乐的下载。
结合上面的情况来说,我们是不是已经成功了呢?但很难过地告诉你,这个网址在短时间内打开,的确会有用,但是,它是有时间限制的,不信的话,你可以过五分钟(或许还不需要这么久)再重新打开该网址,试一下。
那么,照我这么一说,没办法了吗?当然不是,办法还是有的,不然,怎么敢在此“放肆”呢?
问题解决:
通过之前对网页进行分析,我们正一步一步地进行了解、熟悉,且到最后,我们甚至找到了歌曲的最终URL,但是可惜的是,该URL并非是一个永久的,只是一个短暂、临时的动态URL,这简直给我们泼了一盆冷水。
然而,我们无需灰心,俗话说 “ 魔高一尺,道高一丈 ”,办法还是有的。
需将这个问题解决,不得不介绍一个新的URL:
http://music.163.com/song/media/outer/url?id=
在这里,就不卖关子了,这是一个该平台(至于是什么平台,你懂得)的外部链接。在之前的分析中,我们发现了一个很重要的一点,便是这10首歌曲都是一个网址加每首歌曲的id所在的新页面。
在代码中你也会发现所使用的 base_url 便是这个链接。
base_url = 'http://music.163.com/song/media/outer/url?id='
也就是说,我们有了上面的这个网址,便可以为所欲为了。爱动手的你现在便可以立马复制上面的链接,在网页上找到一首歌曲的id号添加至网址后面进行打开(如:http://music.163.com/song/media/outer/url?id=1822734959),是不是得到了如下的界面:
是不是很熟悉呢?没错,这就是之前我们利用网页分析得到的网址所打开的网页,很可惜的是之前那网址是一个临时、动态的网址,对于我们来说进行批量下载没多大用处。所以,当我们现在有了这个新网址,就方便了很多。
好,想一想,既然我们有了这么一个神奇的网址,接下来,该干嘛了呢?好好想一下。
正片开始:
在经过了前面两大点的分析,现在我们可以游刃有余地对这十首音乐进行爬取了。
相信,很多人都知道接下来一步该干什么了吧?
每首音乐可以通过 http://music.163.com/song/media/outer/url?id= 这个网址加每首音乐的 id 进行下载,所以,我们第一步便是想办法获取每首音乐的 id 。
通过之前的这张图不难发现,每首音乐的 id 都在一个a标签内。
#导入框架(库,模块) pip install xxxx
import requests
# 1、确定网址 真实地址在Network----Doc
url = 'https://music.163.com/playlist?id=5087806619'
# 2、请求(requests) 图片,视频,音频 content 字符串 text
html_str = requests.get(url).text
print(html_str)
print(type(html_str)) # 字符串类型
便可以通过上述代码,先将该网页的源代码进行爬取下来,再进行分析。
在这里使用多加了一横打印该页代码的数据类型,不难发现所打印出来的类型为 字符串 。这便有了后续需要将该内容转换为 _Element对象 。
>>>result = etree.HTML(html_str) # 转换类型
>>>print(type(result))
class 'lxml.etree._Element'> #输出类型
作为_Element对象,可以方便地使用getparent()、remove()、xpath()等方法。
而此次爬虫,恰恰所使用的的便是 xpath() 方法。
所以,还需要导入一个新的模块,即:
from lxml import etree
通过浏览器的 XPath Helper 插件可以快速地匹配到每首音乐的 id 。
song_ids = result.xpath('//a[contains(@href,"/song?")]/@href') # 歌曲id
song_names = result.xpath('//a[contains(@href,"/song?")]/text()') # 歌名
print(song_ids)
print(song_names) #列表
而当我们打印出来时,却发现这是一个列表类型。不着急,可以借用 for 进行快速遍历:
for song_id,song_name in zip(song_ids,song_names):
print(song_id)
print(song_name)
通过打印发现,前面多了一些 /song?id= ,这时,便使用下面这行代码,进行删减:
count_id = song_id.strip('/song?id=') # 去掉/song?id=
歌名没有进行打印了,因为我们主要是获取每首音乐的 id ,然而,仔细看上图发现后面多了三个无用的,这三个必须删掉才行,不然在进行后面的 URL 拼接,肯定会报错,因为压根就找不到这样的一个网址。便有了后面的判断语句。
# 过滤含有“$”符号
if ('#39; in count_id) == False:
print(count_id)
清一色id号:
接下来便是拼接新的URL:
song_url = base_url + count_id # 拼接url
print(song_url)
在浏览器里打开上面的任意链接,即可获取该音乐的链接,并进行下载。
但是,我们最终的目的肯定不在于此,而是让爬虫自动帮我们全部下载并进行保存至文件夹。
mp3 = requests.get(song_url).content
所以,我们便进行请求网址,获取每首音乐。最后,在进行保存即可。
# 4、保存数据
with open('./yinyue/{}.{}.mp3'.format(i,song_name),'wb') as file:
file.write(mp3)
需要注意的是,源代码中本人在 for 进行遍历时,增加了一个变量 i ,这是为了我们所爬取下来的音乐保存在文件夹的顺序还是如网页中的顺序所一样,当然如若不需要可将其删除。
到现在看来,我们爬取到了这歌单中的10首音乐,那试想一下,获取其它歌单中的音乐是不是也可以用相同的方法进行获取呢?爱动手的你,快去试一试吧!实践出真知!
说在最后的话:
- 学无止境。利用写博客的方式将所学内容进行一遍温习,加深自己的印象,强化学习。
- 同时,写出来的每一篇笔记为大家作参考,也欢迎各位大佬进行指点,相互交流学习。
- 如若侵权,联系即删!
相关推荐
- 攀升战境S5电竞主机评测:NVIDIA RTX 3060实力助阵,光追游戏走起
-
此次笔者将为玩家们推荐一款游戏主机——攀升战境S5。该主机是攀升电脑今年力推的游戏装备,主机采用一线品牌配件,特别是在显卡选用上严苛把关,精选GeForceRTX30系列显卡,玩家们大可以放心选购...
- 慎买-神牛闪光灯兼容性问题:神牛V350&松下S5M2
-
神牛V350和松下S5M2的兼容性问题。大家好,我是向往闪光灯人像的Fish。国庆期间,我购买了神牛V350闪光灯和神牛X2T引闪器,但这成为了我的噩梦。我原以为客服和松友们说这款闪光灯在松下S5M2...
- Acer蜂鸟持续办公一整天(acer 蜂鸟s5)
-
移动办公在工作节奏日益加快的今天越来越普遍,目前大部分工作无法在手持设备上完成,笔记本依然是移动办公最明智的选择。为了实现移动办公,很多笔记本越做越轻薄,性能也越来越强,而续航却一直没有很大提升。笔者...
- 职业车手明年会骑什么?2021赛季各大世巡赛车队使用器材一览
-
新年的钟声即将敲响,意味着充满魔幻色彩的2020年即将过去。受新冠肺炎的影响,2020年的赛季非常不同寻常。因这一原因不得不延迟举行的各种比赛导致许多车队的赞助商无法得到足够曝光,这也间接导致了许多车...
- 三星部分手机系统升级路线图流出(三星系统在哪升级)
-
三星包括Note3和S5在内的手机在升级到4.4.2系统之后一直没有什么系统升级的消息,而最近流出的一张三星的系统升级路线图中出现了一共13台手机升级KTU84P(也就是Android4.4.4)...
- 索尼Xperia Z3配置大曝光:升级并不大
-
IT之家(www.ithome.com):索尼XperiaZ3配置大曝光:升级并不大索尼明天就会在IFA2014大会上发布其下代旗舰XperiaZ3智能手机,目前网上曝光了其原型机,并且机身背后...
- 不进反退 三星Exynos 5433只能运行32位模式?
-
三星GalaxyNote4将带有两个版本,除了国行使用的骁龙805以外,还有三星自家的Exynos5433版本。而这颗SoC的详细信息三星并没有公布,据外媒Anandtech称,他们从源码中确认...
- 尼康Z6III测评:对比EOS R6 II、A7M4、S5IIX
-
摄影器材测评网站DPReview刚刚发布了尼康Z6III的完整图文测评,该机获得金奖评级,得分达到91%。以下是该文章的摘录——尼康Z6III核心规格:2400万像素“部分堆栈式”传感器RAW连拍:机...
- 赛默飞Ion S5首批数据公布,玩爆前任PGMTM系列
-
北美时间9月1日,赛默飞发布了两款最新的NGS系统IonS5和IonS5XL,旨在提供更加简捷的靶向测序流程。10月29日IonS5测序仪的首批实验数据产生于阜外医院。阜外医院研究人员选用了主...
- Excel技巧:快速制作批量文件夹,省时省力,加强工作效率
-
大家好,如果公司领导要求按人员姓名制作文件夹,以一人一档的形式呈现人员档案,办公人员一个一个制作费时费力,而且效力低下,今天为大家介绍快捷制作批量文件夹的方法下面我们用图片来进行演示操作打开表格,选...
- 国行、港版、美版Apple watch各版本售价一览
-
今天凌晨,苹果牌手表正式发布,苹果开始正式进入可穿戴设备领域,除了功能和外观,我相信大家更关心的是价格问题了,小编就将国行、港版、美版的Applewatch售价做一总结,以供参考。国行:美版:港版:...
- 松下全画幅微单S5和S1到底哪里不一样?
-
Hello,我是ET,欢迎大家来到我的“相机笔记”。————9月2日晚,松下正式发布了第4款全画幅微单LUMIXS5。这一篇,我们主要来说松下LUMIXS5和LUMIXS1到底有哪些区别...
- 融会贯通之典范 神舟S7-2021S5评测
-
便携、性能、续航,这简简单单的六个字道出了这么些年来笔记本电脑的设计方向,可是由于底层技术、模具设计等等原因,这三点并不能很好的融合在一起。虽说闻道有先后,术业有专攻,但能够有一台融会贯通的产品,不是...
- 三国志战略版:S5赛季装X指南,开荒不是一成不变,需要因地制宜
-
大家好我是零氪玩家花席,S5赛季已经开始,因为S5赛季的野地阵容和S4赛季没有区别,所以S5赛季开荒相对不难。你在S4有经验,并且多了很多武将和战法,还能用150赛季功勋兑换7500战法点。S5赛季新...
- 聊聊松下S5M2和S5M2X的区别(松下s5k和s5c有什么区别)
-
先简单说下哪里不同:12bitRAWHDMI外录支持直接将视频录制到USB-SSD上多了All-Intra和ProRes编码支持有线/无线IP推流,USB网络连接黑化的机身不过要特别强调一下,S5...
- 一周热门
- 最近发表
- 标签列表
-
- HTML 基础教程 (29)
- HTML 简介 (30)
- HTML 响应式设计 (31)
- HTML URL 编码 (32)
- HTML Web 服务器 (31)
- HTML 表单属性 (32)
- HTML 音频 (31)
- HTML5 支持 (33)
- HTML API (36)
- HTML 总结 (32)
- HTML 全局属性 (32)
- HTML 事件 (31)
- HTML 画布 (32)
- HTTP 方法 (30)
- 键盘快捷键 (30)
- CSS 语法 (35)
- CSS 选择器 (30)
- CSS 轮廓 (30)
- CSS 轮廓宽度 (31)
- CSS 谷歌字体 (33)
- CSS 链接 (31)
- CSS 中级教程 (30)
- CSS 定位 (31)
- CSS 图片库 (32)
- CSS 图像精灵 (31)