记录下使用python爬取网页并下载资源的过程.
动机 前段时间制定计划,每天上下班路上听点英语演讲音频练练听力,用的手机App是喜马拉雅,上面资源很丰富,但是有两个问题,一是有广告 ,想想你快睡着的时候突然来15秒字正腔圆的广告是什么感觉,二是费流量 ,我都是在线听的.
因此考虑在PC上提前下载好部分音频,导出到手机,再切换到一个精简去广告的手机App来听,岂不美哉.
学习英语的网站有不少,也可以提供下载,但一个一个右键另存为就不符合咱程序员的身份了,因此爬虫搞起!
基础知识 爬取之前,复习下需要的知识,当然这次任务很简单,这里只是总结下.
python基础. 如文件存取,正则表达式re,多进程multiprocessing html网页结构. 如常见的标签tag,CSS中的class 爬虫相关的库.urllib. 提供接口来打开网页,下载资源 BeautifulSoup. 解析网页,提取信息 缺少哪个py库,用pip install xx
来安装
分析与设计 分析过程 人工打开几个目标网页,查看网页源代码来分析下规律,即如何通过主网页,一步步跳转到最终的资源链接.
打开主页,上面显示几十个链接,每一个链接分别是一个具体的演讲页面,其中一个表示如下:
1 2 3 4 5 <td align ="center" class ="titlepic" > <a href ="/tingli/speech/mxlzyj/326635.html" > <img src ="/d/file/201906/6fffc975854bf3f3136637cd69cc6397.jpg" alt ="库克杜兰大学演讲:勇于尝试 敢于做先行者(全文)" width ="145" height ="125" border ="0" /> </a > </td >
因此只要匹配到align属性为’center’,class属性为[‘titlepic’]的td标签,获取第一个href即是一个演讲的链接地址 这里要注意给出的链接是需要补齐前缀的
针对每一个具体的演讲的网页,基本都提供了一个音频的播放器
只要点击下载图标按钮,就会切换到另一个网页,内容为
这里两个图标分别对应mp3和lrc歌词的资源地址
分析音频播放器下载按钮的链接,不出意料,是一个js函数,如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 <SCRIPT type=text/javascript> $(function ( ) { $(".jp-title" ).hover( function ( ) { $(this ).addClass("jp-title-hover" ); },function ( ) { $(this ).removeClass("jp-title-hover" ); }); $(".jp-title" ).click(function ( ) { $(".help" ).slideToggle(); }); $(".jp-download" ).click(function ( ) { window .open('/e/action/down.php?classid=10467&id=326635&mp3=http://mp3.en8848.com/speech/2019tim-cook-tulane.mp3' ) ; }); $(".anniu" ).click(function ( ) { $(".download" ).hide(); }); $("a[id^='jplayer_tc_']" ).click(function ( ) {location.href=$(this ).attr('href' )}); }); </SCRIPT>
重点就是window.open 后的内容,指向最终下载页面的链接. 这里可以通过正则表达式来解析链接地址
分析最终页面,发现内容如下:
1 2 <a id ="dload" target ="_blank" href ="http://mp3.en8848.com/speech/2019tim-cook-tulane.mp3" class ="download" > </a > <a id ="dloadword" href ="http://mp3.en8848.com/speech/2019tim-cook-tulane.lrc" class ="download" > </a >
即mp3资源链接即是从播放器下载图标中提取出来的链接中的 mp3=xxx 的地址 lrc歌词改下后缀即可
提炼总结 根据提供的主页,通过特定的td标签 解析出来每一个演讲的链接,即是一个单独的任务 对每个任务,解析js中window.open 后跟的链接,即是最终的资源所在;分别下载mp3和lrc即可 伪码 1 2 3 4 5 6 main_url = "xxx.html" for td_tag in main_url: check if td_tag is valid get speech_url from td_tag extract rescource_url from speech_url download resource_url+'.mp3' and resource_url+'.lrc'
代码实现 代码 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 import osimport urllibimport reimport multiprocessing as mpfrom bs4 import BeautifulSoupdef crawl (url, dest_dir ): speech = urllib.urlopen(url).read().decode("utf-8" ) speech_soup = BeautifulSoup(speech, "lxml" ) speech_name = "" for div_tag in speech_soup.find_all('div' ): if 'class' in div_tag.attrs and div_tag['class' ] == ["sean_title" ]: speech_name = div_tag.get_text() break if speech_name == "" : return speech_name = speech_name.replace(" " , "" ) for script_tag in speech_soup.find_all('script' ): if 'type' in script_tag.attrs and script_tag['type' ] == "text/javascript" : p = re.compile (r'mp3=(.*).mp3' , re.DOTALL) match = p.findall(script_tag.get_text()) if match: urllib.urlretrieve(match[0 ]+'.mp3' , dest_dir+speech_name+'.mp3' ) urllib.urlretrieve(match[0 ]+'.lrc' , dest_dir+speech_name+'.lrc' ) break def scrapy_map3 (): origin_url = "http://www.en8848.com.cn/tingli/speech/mxlzyj/index.html" prefix_url = "http://www.en8848.com.cn" l = urllib.urlopen(origin_url).read().decode("utf-8" ) soup = BeautifulSoup(l, "lxml" ) dest_dir = './speech/' if not os.path.exists(dest_dir): os.mkdir(dest_dir) pool = mp.Pool(4 ) for td_tag in soup.find_all('td' ): if 'align' not in td_tag.attrs or 'class' not in td_tag.attrs: continue if td_tag['align' ] == 'center' and td_tag['class' ] == ['titlepic' ]: url = prefix_url + td_tag.a.get("href" ) pool.apply_async(crawl, args=(url,dest_dir)) pool.close() pool.join() if __name__ == "__main__" : scrapy_map3()
分析 代码实现是在设计的伪码基础上填充了细节,诸如具体的判断,以及文件名的获取等未提到的细节
考虑到网页获取,文本解析,资源下载速度较慢,而每一个演讲都是独立的,可以使用多进程进行加速
除了多进程,还有异步IO,协程等方式可以加速
参考