分享80个ASP整站程序源码,总有一款适合您
80个ASP整站程序源码下载链接:https://pan.baidu.com/s/1LBQ42ri7y3kKyqLnFcvGCg
提取码:eghf
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
最好基金全站程序 开始下载
思异设计V2.6版源码程序
QQ非主流空间代码站源码
完整版鹏程个人主页系统
ITUFOCMS V1.0
SIBLOG(原Sicms) 多用户网站内容管理系统 V0.6.0
草根文学网整站及模板下载
全FLASH整站企业产品展示修正版-带FLASH留言后台管理
吉林分类信息发布系统V3.0 Beta2版
职业技术培训学校(院)网站系统源码正式版
酷航学校网站管理系统
新炫网络《我就是你的粉丝 炫丽版》原就爱设计
中国电影网迅雷电影资源站 新云宽屏版(带2.8万数据和采集)
V2.8完美仿51yescnzz多用户流量统计系统
流浪人网络免费企业网站管理系统V10修正版本(粉色风格)
FLASH全站程序
爱伊网(女性DIG网站)全站
KeyesCMS V1.5 完全版
就爱设计V7 让我更出色 完整版
恒浪网站管理系统IMS V5.17
整合动易2006Sp6+动网8.0+OBLOG4.6+同学录+交友+房产
恒浪网站管理系统FDO V4.1 Sp1 Build 071009
我要算命网(51suanming.Cn)整站
QQ空间嗨站全站完整版
股票站全站程序
斌少娱乐网整站程序下载
心随你动(Blog)全站插件增强版
华西黑客联盟网站系统V3.0(2007)
漂亮的一个FLASH下载网站全站程序
阿赛网站系统 V2008
QQ表情网
Myzone1.3视频播客空间程序
白蒲Crm客户管理系统V5.0
中国泰宁旅游网 V1.0
Google Picasa推广整站程序源码
火狐浏览器顶级推广程序
MyWeb版纳武林多用户主页系统 V3.0B
爱下沙信息发布系统商业版
WAP综合整站(带数据带采集)
武汉房网 V2.0
思维(CMSware)内容管理系统 V2.85 Utf8繁体中文版(PHP4)
88852大型门户网站免费完整版
漂亮的企业网站V5.0增强版
整站文件备份系统ASPWebPack V1.0.2
西瓜个人主页 VIP 最爱刘德华版
月光网络ASP网站管理系统V1.22
阿黄个人主页程序
H.Z.C个人网站管理系统V3.0 正式版
HxCMS Ver8.0(8月26日修正版)
QQ空间代码粉丝网完整版
重庆二手网全站静态
花香盈路(Hxcms) V8.0
Joekoe CMS V4.0 Bulid 20070712
凯一动画全站程序1.00版
IT319网络整站SP6[07-08-04美化版]
快乐驿站V9.0
心田花园在线网页生成系统
废品网(大学生创业之选)
茗梦轩全站程序
颓废设计 2.0
在线考试系统
蓝锋站长站全站程序
西部商务设计--学校版
永远的小微(情人节美化完整版2007)
作星校园网站系统 V3.0
修远设计全站
超漂亮美食网(完整后台)
小俊家园CMS源码 V2.0
七楼年华个人网站系统 V6.0
四博新云 V3.0702
西部商务设计--政府(2007版)
梦想汽车销售有限公司
机王网络无库1.0免费试用版
中原茶馆 V3.0
威涛个人主页单用户版 V1.3
漂亮的多用户网络书签系统
讯客网--同城生活信息系统 V6.0
鱼乐社区网站管理系统2007 SP1 完整无错版
Wap站长论坛--手机建站程序
便宜租车程序V1.0
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。