ASP源码
分享111个ASP源码,总有一款适合您
下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,
111个ASP源码下载链接:https://pan.baidu.com/s/1Afx8CxZIGwcGWB6aUOssZg?pwd=r81w
提取码:r81w
Python采集代码下载链接:采集代码.zip - 蓝奏云
网络教室学习管理系统 v1.1
七色虎WAP2.0建站系统 v1.2.7 beta2
美女频道内容联盟 v4.7 商业体验版
ASP网络公司网站建设整站程序 v1.0
绿色小说连载小偷 v1.00
联通400企业电话销售系统 v1.0
视频分享系统 v2.1
良精通用网站管理系统 v8.7
buyeju企业网站系统 v3.0
化妆品网站源码 v1.1
iShow网页视频直播系统 v2.2 免费普及版
金老师链接自助交换系统 v1.0
OK3W静态生成沙漠鱼修改版 v6.0
科讯内核的网络公司程序源码
XYCMS纺织企业建站系统 v1.1 UTF8
教育培训公司网站源码
snitz forum强化精简版 v1.9
水果商城系统
站长招商网内容管理系统 v9.0
免费企业网站源码 2012.09.08
红色风格广告传媒公司网站源码
无忧个性网址导航 v2.2
绿色风格职业中专源码
Shopxp网上购物系统 v17.20
铁通无线固话号码销售站 v1.0
外语在线报名系统
21百合婚恋网系统 v3.1
xml统计系统 v1.0
ASP传媒公司仿康盛官网整站源码 v1.0
钓鱼岛宣誓祝福网站 v1.0
中国DJ派街舞俱乐部网站程序
114黄页信息网站系统 v5.1
公交车查询系统 v3.30
首饰定制企业网站源码
56视频分享站源码
DJKK程序源代码
自助友情链接程序整站源码 v1.0
兼职联盟源码
DJ培训学校程序源码 v3.0
中易招聘系统 v1.1
飞飞ASP影视系统(ADNCMS) v4.8 build 120927
BZWB服装进销存系统 v1.0
中国站长保钓行动插件 v20120918
电脑维护网站 v1.2
斑竹中小企业智能建站系统 v2.0
DD38美女写真伪静态缓存开源版 v2.1
星火文字直播系统行政事业版 v2.4_20120919
import os # 查找指定文件夹下所有相同名称的文件 def search_file(dirPath, fileName): dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表 for currentFile in dirs: # 遍历列表 absPath = dirPath + '/' + currentFile if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件 search_file(absPath, fileName) elif currentFile == fileName: print(absPath) # 文件存在,则打印该文件的绝对路径 os.remove(absPath)
外国奶粉公司企业网站源码
旅客预定及联系资料查询系统 v1.0
中国大闸蟹产地直销联盟分销商城系统 v1.0
赶鸟企业网站管理系统 v2.0
仿360搜索首页 v1.0
商达讯网店系统豪华版 v10.0
爱装网装修招标网站源码 v2012
伤感文学CMS文章发布系统 v2.0
XYCMS企业电子商务商城系统 v2.1
玻璃钢企业网站源码 v1.5
78电影网源码 v4.6
维网天下IDC销售管理系统 v1.0
CGSAIL网站管理系统 v3.0
网络工作室源码 v3.2
开心网赚大全整站系统 v1.0
书法网站源码
明星个人网站程序
XML导航系统 v1.4
YimonTemplate (ASP模板引擎) v1.5.20120823 UTF8
YimonTemplate (ASP模板引擎) v1.5.20120823 GBK
import os import shutil import time from time import sleep import requests from bs4 import BeautifulSoup from docx import Document from docx.shared import Inches from framework.base.BaseFrame import BaseFrame from sprider.business.DownLoad import DownLoad from sprider.business.SeleniumTools import SeleniumTools from sprider.business.SpriderTools import SpriderTools from selenium import webdriver from selenium.webdriver.common.by import By from sprider.model.SpriderEntity import SpriderEntity from sprider.access.SpriderAccess import SpriderAccess class HuaJunCode: base_url = "https://down.chinaz.com" # 采集的网址 save_path = "D:\\Freedom\\Sprider\\ChinaZ\\" sprider_count = 111 # 采集数量 sprider_start_count=1555 #正在采集第491页的第12个资源,共499页资源 debug word_content_list = [] folder_name = "" page_end_number=0 max_pager=15 #每页的数量 haved_sprider_count =0 # 已经采集的数量 page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312" filter_down_file=[] def __init__(self): pass def sprider(self,title_name="NET"): """ 采集 PHP https://down.chinaz.com/class/572_5_1.htm NET https://down.chinaz.com/class/572_4_1.htm ASP https://down.chinaz.com/class/572_3_1.htm Python https://down.chinaz.com/class/604_572_1.htm https://down.chinaz.com/class/608_572_1.htm 微信 https://down.chinaz.com/class/610_572_1.htm Ruby https://down.chinaz.com/class/622_572_1.htm NodeJs https://down.chinaz.com/class/626_572_1.htm C https://down.chinaz.com/class/594_572_1.htm :return: """ if title_name == "PHP": self.folder_name = "PHP源码" self.second_column_name = "572_5" elif title_name == "Go": self.folder_name = "Go源码" self.second_column_name = "606_572" elif title_name == "NET": self.folder_name = "NET源码" self.second_column_name = "572_4" elif title_name == "ASP": self.folder_name = "ASP源码" self.second_column_name = "572_3" elif title_name == "Python": self.folder_name = "Python源码" self.second_column_name = "604_572" elif title_name == "JavaScript": self.folder_name = "JavaScript源码" self.second_column_name = "602_572" elif title_name == "Java": self.folder_name = "Java源码" self.second_column_name = "572_517" elif title_name == "HTML": self.folder_name = "HTML-CSS源码" self.second_column_name = "608_572" elif title_name == "TypeScript": self.folder_name = "TypeScript源码" self.second_column_name = "772_572" elif title_name == "微信小程序": self.folder_name = "微信小程序源码" self.second_column_name = "610_572" elif title_name == "Ruby": self.folder_name = "Ruby源码" self.second_column_name = "622_572" elif title_name == "NodeJs": self.folder_name = "NodeJs源码" self.second_column_name = "626_572" elif title_name == "C++": self.folder_name = "C++源码" self.second_column_name = "596_572" elif title_name == "C": self.folder_name = "C源码" self.second_column_name = "594_572" #https://down.chinaz.com/class/594_572_1.htm first_column_name = title_name # 一级目录 self.sprider_category = title_name # 一级目录 second_folder_name = str(self.sprider_count) + "个" + self.folder_name #二级目录 self.sprider_type =second_folder_name self.merchant=int(self.sprider_start_count) //int(self.max_pager)+1 #起始页码用于效率采集 self.file_path = self.save_path + os.sep + "Code" + os.sep + first_column_name + os.sep + second_folder_name self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name+ os.sep + self.folder_name BaseFrame().debug("开始采集ChinaZCode"+self.folder_name+"...") sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name)) down_path="D:\\Freedom\\Sprider\\ChinaZ\\Code\\"+first_column_name+"\\"+second_folder_name+"\\Temp\\" if os.path.exists(down_path) is True: shutil.rmtree(down_path) if os.path.exists(down_path) is False: os.makedirs(down_path) if os.path.exists(self.save_path ) is True: shutil.rmtree(self.save_path ) if os.path.exists(self.save_path ) is False: os.makedirs(self.save_path ) chrome_options = webdriver.ChromeOptions() diy_prefs ={'profile.default_content_settings.popups': 0, 'download.default_directory':'{0}'.format(down_path)} # 添加路径到selenium配置中 chrome_options.add_experimental_option('prefs', diy_prefs) chrome_options.add_argument('--headless') #隐藏浏览器 # 实例化chrome浏览器时,关联忽略证书错误 driver = webdriver.Chrome(options=chrome_options) driver.set_window_size(1280, 800) # 分辨率 1280*800 # driver.get方法将定位在给定的URL的网页,get接受url可以是任何网址,此处以百度为例 driver.get(sprider_url) # content = driver.page_source # print(content) div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容 element_list = div_elem.find_elements(By.CLASS_NAME, 'item') laster_pager_ul = driver.find_element(By.CLASS_NAME, "el-pager") laster_pager_li =laster_pager_ul.find_elements(By.CLASS_NAME, 'number') laster_pager_url = laster_pager_li[len(laster_pager_li) - 1] page_end_number = int(laster_pager_url.text) self.page_count=self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(driver,element_list,self.page_count,page_end_number,down_path) pass else: if self.haved_sprider_count == self.sprider_count: BaseFrame().debug("采集到达数量采集停止...") BaseFrame().debug("开始写文章...") self.builder_word(self.folder_name, self.word_content_list) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break #(self.base_url + "/sort/{0}/{1}/".format(url_index, self.page_count)) #http://soft.onlinedown.net/sort/177/2/ next_url = self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name, self.page_count) driver.get(next_url) div_elem = driver.find_element(By.CLASS_NAME, "main") # 列表页面 核心内容 element_list = div_elem.find_elements(By.CLASS_NAME, 'item') self.sprider_detail( driver, element_list, self.page_count, page_end_number, down_path) pass #print(self.page_count) self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: print("sprider()执行过程出现错误:" + str(e)) sleep(1)
大气酷炫ajax无刷新留言板 v1.0
动天数据企业管理系统 v3.0 教育系列风格
老Y文章管理系统 修改版 v3.0 sp1
娱乐资讯门户网 v2.0 网钛内核
支付宝接口 v1.1
途途外贸企业网站管理系统 工作室版 v2.7.0
汇成免费外贸建站CMS系统 v8.5
高仿BBS留言本程序 v1.0
2012年最新歌曲MTV在线播放系统 v3.1
128uu酒店分销预订系统 v3.4.2
逍遥wap建站系统
好益留言板
畅景智能Flash网站管理系统CFCMS v2.0
电气工程公司网站源码
QQ在线客服网页源码工具通用版 v1.0
2012奥运奖牌榜小偷 v1.0
商达讯网店中英繁系统免费版 v9.0
BingSNS社交互动平台 v2.6 百度控 build20120620
手机39健康网wap小偷 v1.0
火锅派整站程序 v1.0
搞笑版大学录取通知书
千博企业网站管理系统全功能专业版 集成环境版 v2012 Build0723
嘟嘟行业搜素 垂直搜索 v6.0
批量替换采集文章同义词ACCESS版 v1.0
DJ网站
Taygod免费企业建站系统 A1.1
逍遥发布系统 v3.1
幻彩空间(仿QQ空间博客) v2012
搜索主页 v1.0
MaxCMS4.0计划任务采集插件
乐谷社区 v1.0
基于Extjs的开源控件库ExtAspNet中文版 v3.1.9
基于Extjs的开源控件库ExtAspNet英文版 v3.1.9
惠阳信息网社区门户版 v2.0
TV12345网络电视直播程序 v1.0
机票整站程序 v2.0
许愿墙
小邓留言板 v1.2
飞创cms企业网站管理系统 v1.0 测试版
远征者3G建站系统 v3.1.6
6dai中文目录 v2.0
在线医院预约挂号确认表 v1.0
CKeditor for ASP.NET v3.6.4
企搜宝友情链接系统 v1.0
def sprider_detail(self, driver,element_list,page_count,max_page,down_path): """ 采集明细页面 :param driver: :param element_list: :param page_count: :param max_page: :param down_path: :return: """ index = 0 element_array=[] element_length=len(element_list) for element in element_list: url_A_obj = element.find_element(By.CLASS_NAME, 'name-text') next_url = url_A_obj.get_attribute("href") coder_title = url_A_obj.get_attribute("title") e=coder_title+"$"+ next_url element_array.append(e) pass if int(self.page_count) == int(self.merchant): self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager) index=self.sprider_start_index while index < element_length: if os.path.exists(down_path) is False: os.makedirs(down_path) if self.haved_sprider_count == self.sprider_count: BaseFrame().debug("采集到达数量采集停止...") break #element = element_list[index] element=element_array[index] time.sleep(1) index = index + 1 sprider_info="正在采集第"+str(page_count)+"页的第"+str(index)+"个资源,共"+str(max_page)+"页资源" BaseFrame().debug(sprider_info) next_url=element.split("$")[1] coder_title=element.split("$")[0] # next_url = element.find_element(By.TAG_NAME, 'a').get_attribute("href") # coder_title =element.find_element(By.TAG_NAME, 'img').get_attribute("title") try: codeEntity = SpriderEntity() # 下载过的资源不再下载 codeEntity.sprider_base_url = self.base_url codeEntity.create_datetime = SpriderTools.get_current_datetime() codeEntity.sprider_url = next_url codeEntity.sprider_pic_title = coder_title codeEntity.sprider_pic_index = str(index) codeEntity.sprider_pager_index = page_count codeEntity.sprider_type = self.sprider_type if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None: SpriderAccess().save_sprider(codeEntity) else: BaseFrame().debug(coder_title+next_url + "数据采集过因此跳过") continue driver.get(next_url) # 请求明细页面1 if SeleniumTools.judeg_element_isexist(driver, "CLASS_NAME", "download-item") == 3: driver.back() BaseFrame().debug(coder_title+"不存在源码是soft因此跳过哦....") continue print("准备点击下载按钮...") driver.find_element(By.CLASS_NAME, "download-item").click() #下载源码 sleep(1) result,message=SpriderTools.judge_file_exist(True,240,1,down_path,self.filter_down_file,"zip|rar|gz|tgz")#判断源码 if result is True: sprider_content = [coder_title, self.save_path + os.sep +"image"+ os.sep + coder_title + ".jpg"] # 采集成功的记录 self.word_content_list.append(sprider_content) # 增加到最终的数组 self.haved_sprider_count = self.haved_sprider_count + 1 BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个") time.sleep(1) driver.back() coder_title = str(coder_title).replace("::", "").replace("/", "").strip() #去掉windows不识别的字符 files = os.listdir(down_path) file_name = files[0] # 获取默认值 srcFile = down_path + os.sep + file_name file_ext = os.path.splitext(srcFile)[-1] dstFile = down_path + os.sep + coder_title + file_ext os.rename(srcFile, dstFile) srcFile = dstFile dstFile = self.save_path + os.sep + coder_title + file_ext shutil.move(srcFile, dstFile) # 移动文件 else: files = os.listdir(down_path) # 读取目录下所有文件 coder_title = str(coder_title).replace("/", "") # 去掉windows不识别的字符 try: if str(message)=="0个文件认定是False": BaseFrame().error(coder_title+"文件不存在...") shutil.rmtree(down_path) # 如果没下载完是无法删除的 pass else: BaseFrame().error("检测下载文件出错可能原因是等待时间不够已经超时,再等待60秒...") time.sleep(60) shutil.rmtree(down_path) #如果没下载完是无法删除的 #清空数组 self.filter_down_file.clear() except Exception as e: # 使用数组append记录文件名字 移动的时候过滤 self.builder_filter_file(files) pass except Exception as e: BaseFrame().error("sprider_detail()执行过程出现错误:" + str(e)) BaseFrame().error("sprider_detail()记录下载的文件名") # 使用数组append记录文件名字 移动的时候过滤 files = os.listdir(down_path) # 读取目录下所有文件 self.builder_filter_file(files) if(int(page_count)==int(max_page)): self.builder_word(self.folder_name,self.word_content_list) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。