分享77个ASP影音娱乐源码,总有一款适合您
77个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/1L0q0R5FAJ5ccve7rCJBf1Q?pwd=dejc
提取码:dejc
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
千人DJ舞曲网V1.5
星社区DJ站完整美化版V5.0
中国GGMM·超级美工FLASH小偷
DJ667 V1.2
福建音乐视听网(含13万音乐数据)
QQ320音乐程序 V1.0 静态生成修改版
仿前沿官最新风格的音乐程序
QQ2006在线咨询3.0美化版
魔狗在线电影搜索引擎 V1.0
播秀视频分享 V1.0 Beta
新焦点DJ站
舆星MTV音乐网
三种播放器
环球音乐4.2
精英影视系统 V6.0.1 SQL版
Play99_P2P电视频道 V1.5
前沿网整站程序十·一特别版
极品音乐门户站 Build 0829
SC Flash Mp3 Player V2.5 Beta
精品Flash音乐网V1.5
阿怪音乐网
亚洲舞曲网
炫乐吧动漫频道炫绿缤纷 Access版
炫乐吧动漫频道炫绿缤纷 SQL版
无双电影系统
百度Mp3小偷超音速中秋版V1.3
环球音乐5.0
光辉DJ V4.5带数据库版
时尚DJ站程序
仿51live网络电视整站
东方魅力DJ站整站系统
神话磨坊音乐听吧
速搜直播全站下载
多比超速免更新电影程序
多比P2P网络超速电视
湖南FLASH吧
快闪动漫 V2.0 SQL版
飞雁P2P电影系统 V2.0(带长期可用数据库)
最爱音乐网 FLASH版
小鱼MTV站
乐涛涛音乐网免维护版
爱KISS娱乐网视频短片程序V2.0
QQ600电影系统HTML生成版V1.0
521.Be简洁FLASH音乐网
天空电影采集程序
牛族吧FALSH音乐站(全站静态)
校园交易网整合6k论坛V2006 Build0620版
零距离音乐网生成Html无限制版
无组件防盗连
德国世界杯在线直播源码
视频娱乐网
Xs5moe电影程序 Version 1.01
连平FLASH音乐网
疯狂DJ联盟 V3.1 简洁版
100堂免费影院 V3.5
白蒲影院Html版
小脚丫DJ吧 Mp3音乐程序
新频电影网
小小娱乐网
丫丫音乐网完整版最新数据库更新下载(200.4.16)
悬念娱乐网 V7.0 正式版
变态人 V1.5 测试版
网络一点红音乐系统(IeredMusic) V1.0 Free
丫丫音乐网完整版音乐程序
极速免费电影HTML版(无功能限制)
西部影视系统 V1.0
贝贝免费电影HTML完美版(带本站所有数据库)
前沿音乐网V8.0终结版
华仕Flash闪吧V2006
轩魂国度设计音乐系统精简版
华仕影院V2006全功能豪华型
[乐网]在线音乐播放程序
迪娱影视点播系统4.0免费版
娱乐动漫Flash程序
王子俱乐部 DJ红色版本站
美姑影院1.2
36990音乐网
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。