分享83个ASP整站程序源码,总有一款适合您
83个ASP整站程序源码下载链接:https://pan.baidu.com/s/1vtuEGhVTR94i2rVUx8eB9A?pwd=oa7f
提取码:oa7f
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
H.Z.C个人网站管理系统V3.0 正式版
HxCMS Ver8.0(8月26日修正版)
QQ空间代码粉丝网完整版
重庆二手网全站静态
花香盈路(Hxcms) V8.0
Joekoe CMS V4.0 Bulid 20070712
凯一动画全站程序1.00版
IT319网络整站SP6[07-08-04美化版]
快乐驿站V9.0
心田花园在线网页生成系统
废品网(大学生创业之选)
茗梦轩全站程序
颓废设计 2.0
在线考试系统
蓝锋站长站全站程序
西部商务设计--学校版
永远的小微(情人节美化完整版2007)
作星校园网站系统 V3.0
修远设计全站
超漂亮美食网(完整后台)
小俊家园CMS源码 V2.0
七楼年华个人网站系统 V6.0
四博新云 V3.0702
西部商务设计--政府(2007版)
梦想汽车销售有限公司
机王网络无库1.0免费试用版
中原茶馆 V3.0
威涛个人主页单用户版 V1.3
漂亮的多用户网络书签系统
讯客网--同城生活信息系统 V6.0
鱼乐社区网站管理系统2007 SP1 完整无错版
Wap站长论坛--手机建站程序
便宜租车程序V1.0
多多医院科室管理系统V2.0
冰の恋情缘全站
123木头人个人主页 V2.0
天创科技Cms1.0
久居网站管理系统YES2007411
水晶娱乐论坛7.10
旅客联盟整站程序
一起游戏整站第二版
WAPmo手机网站管理平台 V1.3
酷乐吧网站系统第一版-时尚时装展示系统
酷乐吧网站系统第三版-娱乐社区系统
小计天空资讯门户站
清风千年整站系统 V4.0 普及版
酷乐吧网站系统第二版-教程发布系统
酷乐吧网站系统第四版-电子杂志发布系统
宏道科技企业网站系统 V4.0修改完整版
开心网址ASP 生成Html 版(Final Version)
流星情缘V8.0最新版本
适合单位部门建站源码Jlgovweb V1.0
上海装饰公司网站源码
亿时空间CMS内容管理系统 V5.0 SP1
粉网企业网站管理系统 V0.1
玩游戏外挂网整站数据加一键采集更新
色影空间摄影图片管理系统个人版V4.0 Build 0520
飞雨工作室公司网站管理系统 V07.10
心理在线咨询系统 V3.0
艺风设计 2006
纵横天下古韵沉香全屏风格TXcms 7.8
蓝缘工作室V1.0会员版
启航工作室网站管理系统(WMS) V6.0 Final
黑色风格的新云程序修改版
Wap建站系统-完全免费版
HoWave IMS V5.12 Access_0430正式版
追风设计站 V1.8美化版
巴士E链程序Wap版
小计天空交大维修在线 V1.0
迅捷反馈表单 V1.0
新云网站管理系统 四博修改版
华锁万绍球源码黑色版(生成HTML)带采集 V9.0
IYNECCMS 20070302
JTBC(CMS)-Jenfy美化修正无错版
树蛙游戏网整站
自由领域Web自定义导航
自由领域WAP同学录 V4.35
AspWiKi V2.0 Build 01.03 精缩版
AspWiKi V2.0 Build 03.12 网易版
AspWiKi V2.0 Build 03.19 互动版
中国秀未来设计站点 V2.0
E娱吧整站程序(龙觉修改版)
黑冰黑客城
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。