分享66个ASP影音娱乐源码,总有一款适合您
66个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/1HjD54s69O-U-Q2gSAO0Tsw?pwd=khrc
提取码:khrc
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
5an5小游戏程序
8603音乐网管理系统 V2009.1001
中秋送祝福网页(恶搞)
521yy笑话大全(自带47203篇本地笑话数据) V1.0
窝窝网聚音乐分享程序 V3.0
七听网DJ音乐
QVMS电影系统 V1.0 Build 090828
QVMS资源站接口
小石头音乐网终极版
Flv视频播放器Asp后台添加版 V1.0
时尚音乐网V3.0
骑士嗨嗨网
段富超音乐娱乐网1.0
1u11在线电视直播程序
分享音乐 V2.5
无忧影视视频管理系统 V1.0 Beta
亿科影视管理系统 1.2.0
我爱音乐网整站程序
月明星空动画版 V1.0
爱歌曲橙色完美版
Follow Me超级搜索引擎V6.5(完美版)
57oo CMS 电影整站系统 V1.1
QVMS高清视频分享专家 1.0 正式版
游戏库网站
嬉戏网络电视直播
夜潭FLV播放程序 V2
花木兰免费电影程序
8603在线电台程序 V2009.0123
DJ50音乐网程序
深度学习(Asp)拼图游戏 V0.2.3
乐风影视 LovaCMS V2.0.2 Build 090105
乘风电影程序 V3.92 (ACCESS)
乘风电影程序 V3.9 (SQL)
Pomeloo电影程序V3.0免费版
ADN电影程序3.6标准一键采集版
Btplus V0.1 FOR 马克斯1.5
小强涂鸦板
访谈电影网全站程序
DJ37-2008程序
冷觉DJ站(Div+Css)V8.12
温岭动漫网V1.2整站带采集功能
乐涛涛音乐网 Build 081019
要TV音乐系统V5.1
卡奇娱乐电影系统全站源码,含4900部QVOD电影
搜一次CMS电影V1.0全部模板
2008派电脑大头帖 V1.0
ASP+JS网页版斗地主 V1.1
FLASH多用户播放器
Follow Me超级电影小偷V9.1(完美版)
恒上快网-多用户音乐播放器完整版
ADN视频收藏专家 V3.0 体验版
QQ空间多用户Flash播放器
晴天影视马克斯采集插件(完美支持所有版本)
晴天图片系统V1.0.8001
晴天电影采集助手V1.0
马克斯4.5采集插件
ADN视频收藏专家 V2.4.0 Build 080729 (Acc+Sql)
奥运直播程序&在线网络电视
大同DJ采集完美舞曲程序
小佦頭音樂网
马克思程序七天影视模板MaxcmsV1.1
幻影动漫网CMS V1.0
听听好易网络电台
看看好易聚合电影生成HTML系统 V1.0
豆角网电影搜索程序 V1.0
Flash音乐程序
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。