分享74个ASP整站程序源码,总有一款适合您
74个ASP整站程序源码下载链接:https://pan.baidu.com/s/12WvL3Z7LhmCwzhTPgxVZTA
提取码:g64j
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
仿当下软件园的游戏黑客站源码
手机主题整站源代码
开心否非主流整站-新云4.0内核
711最新版ASP网站QQ在线咨询插件2009
月儿猫猫ASP生成HTML全站静态客户体验专业版V1.0
小计天空超清爽个人主页 V6
浦东订水送水网站系统
学校课件软件下载文章浏览网站源码
网人广告联盟系统 V2.0 Bulid 090226
Den123分类信息网 商业版
仿百度百科 V2.6 ASP标准版
Diggcms内容管理系统 V3.2
我爱看小说网站程序V3.19
中国标准企业网站管理系统
通用公司企业管理系统
黑酷DIV+CSS风格爱伊儿资源站FOR 新云3.1
三峡卫生健康网整站程序(带数据)
教师123课件ASP网站
711企业网站管理程序V2009
捣蛋网源码
月儿猫猫ASP生成HTML全站静态-自动同步更新BLOG程序V2.0Final
土豆丫头整站源码
月光使者FLASH个人主页
NETSOZ网址收藏夹+通讯录+记事本 NZFRS V3.0
百科知识搜索系统 V1.0 BETA
北极星教育资源站
蓝木物流货运信息系统V2.0
点云网络传媒V2.0
骇客基地CMS V2009112
中国家教网V1.0源程序(整站源码)
2009多风格新春节日祝福网站
鹏程网络V2.7高级完整版
2009新年祝福许愿墙-E站通
KesionCMS V5.5 Bulid 090106 UTF-8
北京国际快递公司
武汉玻璃钢网站完整无限制整站
智可蓝网管理系统2.0
那年下雪文化艺术传媒
泥鳅时尚网络FLASH整站源码
成都二手网
521yy智力测试(自带2052条数据)
Hsort校园二手信息 创业系统 V2.0 修正版
三丰物流信息网
星梦奇缘文学网源码下载(完整免费版)
易可查小资网YIKCA CMS 1.0
人在旅途博客(怀旧版)
YIKCA CMS
千聚网络
深山行者个人网站程序 V0.1
梦想不死个人主页 V2009
SmartWeb1.0.2企业智能建站系统-那什软件
翎风个人主页管理系统 V1.0
酷睿股票网站系统V2008.11.20精简版
60度CMS V1.0 Build 081031
彩虹QQ网程序源码
尚志学校网站整站程序
真爱空间中小学校网站整站程序 V2.6
木犁内容管理系统WoodPlow CMS V1.0 Beta2 Sql 修正版
QQ网名站(新云3.1内核)
大头友情自助链整站程序
酷睿股票网站系统全功能版V13.0901
郑州华康医院原程序
国内十佳分类信息网整站程序
泉州市安顺交通设施有限公司全站程序
冠龙科技多风格企业网站管理系统
深圳学车网整站
旋涡小筑 V3.0
太古软件公司整站
PWeb文章类建站系统 V3.0
NetPb网上党支部系统 V1.01
医学检验8门户网站
脑筋急转弯(含数据) V1.0
LPLY CMS 爱儿工作室 V2.0 Bulid 080914
信运08版网店系统
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。