分享83个ASP影音娱乐源码,总有一款适合您
83个ASP影音娱乐源码下载链接:https://pan.baidu.com/s/1qjmcHboL1b_HgrNKd3V1_Q?pwd=05wx
提取码:05wx
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
小军网络电视2.0ASP版
爱你网音乐播放器1.0
金乡娱乐网-音乐站(带完整数据库)
听听听
中国影视基地第二版
亿人音乐 V1.0
笨笨音乐系统简易版
罗村在线影视系统HTML版
揭西在线影院
梧州藤县Flash动漫网
非要歌词网四万歌词MSSQL共享版
亚视网宽频V1.0商业版电影程序
银星网Flash动漫频道
揭西DJ嗨网
一套专门用在网吧的主页程序
阿龙DJ音乐厅
七兔音乐网2.0
音乐网站《新年风格》
闪吧Flash小偷程序
阿男智能音乐更新 V1.8
慕云小屋音乐整站
七兔音乐网
广东E时代影院蓝色XP免费版
长乐音乐网2004版
浪子网络的音乐程序
石角DJ站防SQL版
第九互动MTV自动更新版
罗村在线影视系统XP1
眉州FLASH频道2.0(带万条数据)
欣欣棋牌娱乐中心
大家网在线电影&BT下载搜索引擎
广东E时代Flash娱乐网
广东E时代影音网站
金乡娱乐网-电影程序
53331.Com MTV站 生成HTM商业版
23得6音乐街 简单电影程序 V1.2
热点都市修改音乐小偷-
亚视网宽频防盗链版V3.0免费电影程序
2ΠR娱乐网点广告免费电影程序
莹莹桌面秀 M0201
莹莹动漫客栈 M0201
长乐音乐网提供下载
Bt电影下载站生成Html
『 爱你网 幻雪爱你版 』 播放器
热点都市HttpWww.Rdcity.Com FLASH站--天空小偷
大家电影BT搜索
罗村在线电影程序XP 多功能广告加密版
东石DJ先锋仿(中国DJ嗨嗨网)第二版
鸿鹄の心情网络电视
啊猪动漫FLASH程序(圣诞+新年)版
广东E时代音乐程序
广东E时代Flash简洁版
AspShop 脑筋急转弯程序 V9.21 修正版
无忧岛音乐网V04.11版本
广东E时代影院商业版
Flash520动漫网(自带1000多个数据绝对有效)
520免费电影网系统黄色HTML1.01版 免登陆免注册版本
冰风免费电影美化版
Bb音乐播放器
23得6简单影院
中国学生资讯网校园影视联盟
紫仙阁免费影视系统V2005版
222mov免费电影(带2万数据库,防注入)
山东DJ联盟V2.0加强版
阿妙热音乐屋
粤西明珠笑话频道
悬念电影小偷 1.0修正版
罗村在线-音乐频道美化版
269时空音乐网
音乐城堡2005MX版
后宫娱乐笑话小偷程序
3T 游戏网
西部摄影 V5.0整站程序
超级电影小偷2.0
一信DJ舞曲网小偷程序
QQ185音乐地盘(第二版)
泡泡影视城 V0.2
天下影院(Txkk.Com)
糊狸FLASH动画程序 V6.0
爱听音乐网
帝王影视收费系统无错版V1.2
一信DJ迪吧
佳佳DJ站音乐程序 V2.0
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。