分享73个ASP影音娱乐源码,总有一款适合您
73个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/179u_GyEtVfxEIgTevmOMiA?pwd=xg3t
提取码:xg3t
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
千千静听-网页版播放器
天空音乐Vista版
PPFEI带采集生成HTML电影程序
宁都DJ吧第二版
舆星音乐程序2007最新版
音听故事-美工非常好
广东DJ嗨吧整站程序 V2.0完美修正版(带80G数据)
简单生活音乐程序
玉林DJ嗨嗨网
音乐小屋Vista版
爱点歌大众版 1.0
情缘DJ城堡 V1.0
流浪人网络音乐播放器V 3.0(支持后台管理)
01BOBO联盟P2P电影系统+采集 V1.0修正版
雨季影音吧MTV版V1.0
老徐P2P电影系统 V0.1
青苑影院系统
音乐小屋分栏式FlashMTV音乐站2007第三版
天空音乐连续播放器
天空音乐网 V3.0
雨季影音吧源码1.0下载
4月18日捌度出品之音乐小偷贺岁版修正版
冰凌音乐播放器 V1.0
65353音乐网2.1无功能限制版
玉林音乐网 3.0版本
飞雪DJ程序 V6.4
新网盟影视系统 V4.01
幻恋玫瑰 音乐空间(V3.3)
玉林MTV 2.0版本
魅力在线音乐播放程序1.0Build0322
中国DJ嗨吧全屏红色风格超美化版(0703)
DJ100舞曲网全新程序
Beyond歌迷家园,视频点播系统
小哥FLASH吧 V2.0 栏目版
949嗨吧整套 2007全黑新版
中国DJ嗨吧超酷黑色全屏风格(0703)
949嗨吧无广告FLASH整站程序(带19659条完整数据)
CenFun Music Player V2.1 B070123
电视吧电视程序
连云港KTV新年Html版 L1.0.Rar
欢乐MP3音乐搜索
百度Mp3音乐小偷--百灵鸟2007年0201版
连云港KTV红色Html版 V1.2
许愿墙程序4.0美化版
岚宇DJ站2.1大众美化版
CBF电影点播系统V8.02免费版
新音乐网 V 1.0(悬念音乐网纪念版)
零距离音乐网 V6.0 增强版
234音乐网 V2.0
脉动影院电影程序源码
岚宇DJ站功能版(美工超漂亮)
连云港KTV黑色Html版V1.1
Rrmea影音娱乐 V1.0 Beta
爱Flash动漫网 V1.0 Beta
恋菲音乐网V6.0
大连DJ舞曲网黑色生成HTML
舆星网络直播《07新年版》
龙讯Flash作品分享系统
华锁万绍球音乐2007 Flash_vt2.3
玉蝴蝶DJ嗨吧程序
舆星音乐网程序(仿可可可西音乐网)
圣诞节小游戏
舆星音乐电台《仿QQ版》
321旅Flash吧
好莱坞影视程序商业版Ver1.2
Hao65vod好莱坞影视系统大型免费版VER1.0电影程序
失败DJ音乐网
中国狂疯听吧仿DJMTV红色DJ生成版
梦想动漫Flash
恋维DJ舞曲 1.2 生成Html版
六零迪网 60Dj V.4.4
流行FLASH音乐网V2.0
千人DJ舞曲网V1.5
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。