分享70个ASP影音娱乐源码,总有一款适合您
70个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/1NEC63jjo2_dUtQ6oPlHRVg?pwd=3su2
提取码:3su2
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
听听好易网络电台
看看好易聚合电影生成HTML系统 V1.0
豆角网电影搜索程序 V1.0
Flash音乐程序
草根文学网我要算命超级娱乐搞笑程序
马克斯电影采集插件通用版
马克斯5.0采集插件
一特音乐网站管理系统Beta2.0
芜湖播客家园 V4.5
DJ527舞曲网整站程序 V3.0最终版(带80G数据)
中国象棋Online V2008 Build 0313
武林音乐网HTML版V3.0
永州宏网电视直播程序
海涯视频分享平台整站源码 V1.2
时代在线影院
品络影视系统1.0
全球视听网(全站生成Html)
简单音乐EasyMusic DIV+CSS+Ajax V1.0
CenFun Music Player V2.1 ASP在线音乐管理程序 (CMP)
新酷影视P2p采集3.0版本
秋风电影采集系统 V3.1
手机铃声搜索引擎 V1.0
旧天堂网络电台
千千静听 网页播放器 后台管理版
云网TMS影视系统 V6.0 正式版(带商业模板及数据)
蚂蚁影院修改版
中国DJ嗨吧V5.0
飞跃网络FLASH音乐程序V2.0完整版
CcP2P在线电影小偷系统V1.0
终点小说清爽模板
乐涛涛音乐网免费版11-07更新
杀毒啦电影程序
脑筋急转弯程序 Asp版
百灵鸟音乐网V200710版(全站生成Html 无音频服务器用户首选)
新酷影视2.1调用代码
新酷影视2.0数据库升级程序
安兴影视Div+Css生成Html
我好找视频吧(仿UUME带数据DIV+CSS)
马克斯FLV电影程序 V3.1
白蒲视频播客系统V2.5
要听舞曲网V1.3
三九电影迅雷地址采集版
重庆宽频P2P电影程序1.0
老婆Dj舞曲网程序V3.0(Div+Css)
哇一声分享网(仿豆瓣网)
手机电影城(收费下载程序)
土豆音乐网V1.0
252u DJ舞曲小偷
11CT影视程序
咸宁休闲影院P2P影视采集系统2.0
4GP手机电影程序
混音DJ程序
黑色风格带采集生成HtmlP2P电影系统
BOBO免费电影程序
绥化舞曲网 V2.0
影视中华免费电影程序
绿色版自动更新歌曲免费DJ播放器
舆星DJ舞厅2007新版
承诺爱你 Flash主站 完美修改版本
点点音乐
播客平台
初二(10)班音乐小偷程序
2007最新影音程序(-防土豆网风格-)
711网络FLASH音乐网站管理程序V3.0(6.15b免费版本)
Exobud MP 点歌扩展程序 V1.1 Build 0523
千千静听-网页版播放器
天空音乐Vista版
PPFEI带采集生成HTML电影程序
宁都DJ吧第二版
舆星音乐程序2007最新版
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。