Python3.6实现根据电影名称(支持电视剧名称),获取下载链接的方法
Python  /  管理员 发布于 7年前   292
本文实例讲述了Python3.6实现根据电影名称(支持电视剧名称),获取下载链接的方法。分享给大家供大家参考,具体如下:
做个笔记
(python 3.6,django 2.0)
def get_url(outer_order_id):  refundId = get_refundId(outer_order_id)  host_url = 'http://test.shequ.com/order/agreeRefund?'  reason_list = ['商品已售完','重复订单','没有骑手接单','联系不上顾客','顾客需要重新下单']  reason = random.choice(reason_list)  api_data = {    'reason':reason,    'refundId':refundId,    'sendType':0  }  url = host_url + parse.urlencode(api_data)  return urlprint(get_url('3086123456'))http://test.shequ.com/order/agreeRefund?reason=%E9%87%8D%E5%A4%8D%E8%AE%A2%E5%8D%95&refundId=1170611&sendType=0# -*- coding: utf-8 -*-import urllibfrom bs4 import BeautifulSoupimport re#访问url,返回html页面def get_html(url):  req = urllib.request.Request(url)  req.add_header('User-Agent','Mozilla/5.0')  response = urllib.request.urlopen(url)  html = response.read()  return htmldef get_movie_url(movie_name):#根据电影名称,生成搜索结果的URL  host_url = 'http://s.dydytt.net/plus/search.php?kwtype=0&keyword='  movie_sign = urllib.parse.quote(movie_name.encode('GBK'))  search_url = host_url + movie_sign  return search_url#从搜索结果页面,提取电影的详情页面链接,存入列表返回def get_movie_list(url):  m_list = []  html = get_html(url)  soup = BeautifulSoup(html,'html.parser')  fixed_html = soup.prettify()  a_urls = soup.find_all('a')  host = "http://www.ygdy8.com"  for a_url in a_urls:    m_url = a_url.get('href')    m_url = str(m_url)    if re.search(r'\d{8}',m_url) and (host not in m_url):      m_list.append(host + m_url)  return m_list#从电影详情页面中获取电影标题def get_movie_title(html):  soup=BeautifulSoup(html,'html.parser')  fixed_html=soup.prettify()  title=soup.find('h1')  title=title.string  return title#从电影详情页面中获取此页面所有的的下载链接def get_movie_download_url(html):  soup = BeautifulSoup(html,'html.parser')  fixed_html = soup.prettify()  td = soup.find_all('td',attrs={'style':'WORD-WRAP: break-word'})  down_urls = []  for t in td:    down_urls.append(t.a.get('href'))  return down_urls#传入电影列表,获取每个电影的下载地址def get_movie(movie_list):  movie_dict = {}  for i in range(0,len(movie_list)):    html = get_html(movie_list[i])    html = html.decode('GBK','ignore') #忽略编码错误    m_title = get_movie_title(html)    if u'游戏' not in m_title: #过滤游戏      if u'动画' not in m_title: #过滤动画片        m_url_list = get_movie_download_url(html)        for m_url in m_url_list:          movie_dict[m_url] = m_title  return movie_dict用django展现在页面效果如下:
另一个网站的
# -*- coding: utf-8 -*-from xpinyin import Pinyinfrom bs4 import BeautifulSoupfrom urllib import request,errorimport time,reimport sslssl._create_default_https_context = ssl._create_unverified_context #关闭https协议验证证书def get_html(url): #访问url,返回html页面,如果url错误,则返回状态码,一般是404  req = request.Request(url)  req.add_header('User-Agent','Mozilla/5.0')  try:    response = request.urlopen(url)    html = response.read()    return html  except error.HTTPError as e:    return e.codedef get_m_html(movie_name):#根据电影名称,返回正确的电影html  pin = Pinyin()  pinyin_movie_name = pin.get_pinyin(movie_name,"")#不使用分隔符,默认是-  movie_type = {    "Sciencefiction":"科幻片",    "Horror"    :"恐怖片",    "Drama"     :"剧情片",    "Action"    :"动作片",    "Comedy"    :"喜剧片",    "Love"     :"爱情片",    "War"      :"战争片"  }  host = "https://www.kankanwu.com"  for k,v in movie_type.items():    movie_url = host + "/" + k + "/" + pinyin_movie_name + "/"    html = get_html(movie_url)    if isinstance(html,int):      time.sleep(10)    else:      return htmldef get_dload_url(html): #从电影html页面中获取下载地址  movie_dict = {}  soup = BeautifulSoup(html,'lxml')  fixed_html = soup.prettify()  a_urls = soup.find_all(href=re.compile("thunder"))#找到含有thunder链接的href  for url in a_urls:    m_title = url.get('title')    m_url = url.get('href')    movie_dict[m_title] = m_url  return movie_dict更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
122 在
学历:一种延缓就业设计,生活需求下的权衡之选中评论 工作几年后,报名考研了,到现在还没认真学习备考,迷茫中。作为一名北漂互联网打工人..123 在
Clash for Windows作者删库跑路了,github已404中评论 按理说只要你在国内,所有的流量进出都在监控范围内,不管你怎么隐藏也没用,想搞你分..原梓番博客 在
在Laravel框架中使用模型Model分表最简单的方法中评论 好久好久都没看友情链接申请了,今天刚看,已经添加。..博主 在
佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 @1111老铁这个不行了,可以看看近期评论的其他文章..1111 在
佛跳墙vpn软件不会用?上不了网?佛跳墙vpn常见问题以及解决办法中评论 网站不能打开,博主百忙中能否发个APP下载链接,佛跳墙或极光..
			Copyright·© 2019 侯体宗版权所有·
			粤ICP备20027696号
			
			
