乐愚社区Beta

 编程语言  >  Python爬虫影视网之——VIP影视随意看

Python爬虫影视网之——VIP影视随意看

寒心烟雨情  L2  • 2018-09-08 • 回复 2 • 只看楼主举报    

新版块出来了,我把之前的一个脚本改了一下,分享出来。


用Python爬取某影视网的影视资源,跟现在网上流行的VIP影视网站和软件都是一样的地址来源。


因为我打算用作软件或网站的一个功能,所以代码输出结果是倾向HTML文本的。


废话不多说,除了分享代码之外,我也把自己的接口分享出来。接口适应手机版,可在QQ打开。

(http://hh52.cn:6600/zyw/zxdy/?s=参数)

使用方法:get的请求方式,参数处填要搜索的影视名。

另外提醒:廉价服务器,尽量自己挂,如果服务器顶不住会考虑自己用。


这几个模块先装好。我是用flask框架做web对接。

import requests,re
from flask import Flask
from flask import request

代码:

@app.route('/zyw/zxdy/')
def bwzy_pc():  #传进来的这个值是要搜索影视名
    value=request.args.get('s')
    zztj='''<script type="text/javascript">var cnzz_protocol = (("https:" == document.location.protocol) ? " https://" : " http://");document.write(unescape("%3Cspan id='cnzz_stat_icon_1274386182'%3E%3C/span%3E%3Cscript src='" + cnzz_protocol + "s22.cnzz.com/z_stat.php%3Fid%3D1274386182%26show%3Dpic1' type='text/javascript'%3E%3C/script%3E"));</script>'''
    url="http://www.baiwanzy.com/index.php?m=vod-search"
    data={'wd':value,'submit':'search'}
    headers={'Referer':'http://www.baiwanzy.com/index.php?m=vod-search','User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
    try:
        req=(requests.post(url=url,data=data,headers=headers).text).encode('ISO-8859-1').decode('utf-8')   #以post提交数据
        re_url=re.findall('<div class="xing_vb">.*?<ul>.*?<li>.*?<a href="(.*?)".*?</ul>.*?</div>',req,re.S)[0]  #比配搜索到的第一个链接
        url_b='http://www.baiwanzy.com'
        if(re_url==url_b):
            return ('嗷,居然没有找到!换个短的关键词试试!')   #如果没有搜索结果则返回这个
        else:
            url_2=url_b+re_url     #拼接第二个URL
            req_url_2=(requests.get(url_2).text).encode('ISO-8859-1').decode('utf-8')    #以get的方式请求源码
            re_pm=re.findall('<div class="vodh">.*?<h2>(.*?)</h2>.*?<span>(.*?)</span>',req_url_2,re.S)[0][0]   #比配片名
            re_lj=re.findall('<div class="vodplayinfo">.*?<ul>(.*?)</ul>.*?</div>',req_url_2,re.S)[0]  #比配播放链接
            re_lj=re_lj.strip()  #去掉中前后的空白符
            re_mb=re.findall('<li>.*?/>(.*?)</li>',re_lj,re.S)   #对数据进行最后的清洗
            r=1
            html=''
            for i in re_mb:
                re_i=re.findall('.*?http(.*)',i,re.S)[0]     #考虑之后决定这里再比配一次链接
                htm='第%d集<a href="http%s">http%s</a><br>'%(r,re_i,re_i)            #这里拼接超链接
                r=r+1
                html=html+htm
            return re_pm+'<br>'+html+zztj
    except:return '啥?出现未知错误。'    #当爬虫出现错误时返回这个



if __name__ == '__main__':
    app.run (port='6600',host='0.0.0.0')   #

代码中有两处是要转编码,今天遇到的坑,在服务器上不需要转编码,如果你们在使用的时候出错或出现乱码把后面转编码的删掉就好了。


代码有很多不规范之处,可能看起来有点累。


成品相关截图:








2条回帖
宇智波佐助  L10  评论于
(1)  回复(0) 1#
什么意思?不明白,我理解能力不好
夜晚去远行  L15  评论于
(0)  回复(0) 2#
谢谢,我研究一下
还没注册帐号?快来注册社区帐号,和我们一起嗨起来!
关于本社区

集各类兴趣爱好于一身的轻量化交流社区,在此您可以和他人一起分享交流您觉得有价值的内容,社区鼓励大家发表原创内容,为社区添砖加瓦!

发帖奖励 → 社区版规 → 招聘版主 →
推荐版块
扫描二维码下载社区APP
回到顶部