分享111个ASP搜索链接源码,总有一款适合您
111个ASP搜索链接源码下载链接:https://pan.baidu.com/s/1ZPRxwoPR0eR5qcC06grvZg?pwd=545u
提取码:545u
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import time from time import sleep from framework.base.BaseFrame import BaseFrame from sprider.business.DownLoad import DownLoad from sprider.business.SeleniumTools import SeleniumTools from sprider.business.SpriderTools import SpriderTools from selenium import webdriver from selenium.webdriver.common.by import By from sprider.model.SpriderEntity import SpriderEntity from sprider.access.SpriderAccess import SpriderAccess sprider_name = "ASP搜索链接源码" class CNSourceCoder: base_url = "http://www.downcode.com" base_path = "D:\\Freedom\\Sprider\\CNSource" sprider_count =111 sprider_start_count =116 #ASP新闻文章源码21是大文件 从20开始 first_folder_name = "ASP" max_pager = 10 # 正在采集第22页的第3个资源,共39页资源 正在采集第54页的第1个资源,共64页资源 word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加 tempFileList=[] def sprider(self,sprider_name): """ ASP留言日记源码 http://www.downcode.com/sort/j_1_2_1.shtml ASP交友会员源码 http://www.downcode.com/sort/j_1_5_1.shtml ASP投票调查源码 http://www.downcode.com/sort/j_1_6_1.shtml ASP上传下载源码 http://www.downcode.com/sort/j_1_7_1.shtml ASP搜索链接源码 http://www.downcode.com/sort/j_1_8_1.shtml :param sprider_name: :return: """ if sprider_name == "ASP聊天室源码": self.first_column_name = "sort" self.second_column_name = "j_1_1" elif sprider_name == "ASP搜索链接源码": self.first_column_name = "sort" self.second_column_name = "j_1_8" elif sprider_name=="ASP投票调查源码": self.first_column_name = "sort" self.second_column_name = "j_1_6" elif sprider_name=="ASP留言日记源码": self.first_column_name = "sort" self.second_column_name = "j_1_2" elif sprider_name == "ASP江湖论坛源码": self.first_column_name = "sort" self.second_column_name = "j_1_3" elif sprider_name == "ASP新闻文章源码": self.first_column_name = "sort" self.second_column_name = "j_1_4" elif sprider_name == "ASP交友会员源码": self.first_column_name = "sort" self.second_column_name = "j_1_5" elif sprider_name == "ASP上传下载源码": self.first_column_name = "sort" self.second_column_name = "j_1_7" BaseFrame().debug("开始采集" + self.first_folder_name + "...") BaseFrame().right("本次采集参数:日志路径=" + str(BaseFrame().LOG_PATH) + "") BaseFrame().right("本次采集参数:sprider_count=" + str(self.sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name=" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url=:" + sprider_url) self.second_folder_name = str(self.sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) chrome_options = webdriver.ChromeOptions() diy_prefs = {'profile.default_content_settings.popups': 0, 'download.default_directory': '{0}'.format(self.down_path)} # 添加路径到selenium配置中 chrome_options.add_experimental_option('prefs', diy_prefs) chrome_options.add_argument('--headless') # 隐藏浏览器 # 实例化chrome浏览器时,关联忽略证书错误 driver = webdriver.Chrome(options=chrome_options) driver.set_window_size(1280, 800) # 分辨率 1280*800 driver.get(sprider_url) element_list = driver.find_elements(By.CLASS_NAME, "j_text_sort_a") # element_list = element_ul.find_elements(By.TAG_NAME, "h2") # page_end_number = 1 page_end_url = "" a_elments = driver.find_elements(By.TAG_NAME, "a") for a in a_elments: page_end_title = a.get_attribute("title") if page_end_title == "最后页": page_end_url = a.get_attribute("href") print(page_end_url) break if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(driver,element_list, page_end_number) pass else: if self.haved_sprider_count == self.sprider_count: BaseFrame().debug("采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name ) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) driver.get(next_url) element_list = driver.find_elements(By.CLASS_NAME, "j_text_sort_a") self.sprider_detail(driver, element_list, page_end_number) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: print("sprider()执行过程出现错误:" + str(e))
奥点搜索 V1.0
QQ空间代码查询2.0
奥搜垂直搜索引擎 V6.0 Build 090606
百度搜索系统(火狐修正版)
搜索动力2009(Asp+Access) Ver 3.4 (夏日版)
万能超级搜索引擎V6.7(完美版)
查查IDC搜索引擎 1.0
自助友情链接申请V1.0
酷站目录(仿Coodir)
互兑链接网 Ver 1.0 正式版
SerCMS小型内容搜系统
搜索动力2009(Asp+Access) Ver 3.3 (哀悼版)
百度一搜集成搜索管理系统 V3.0
网人信息发布系统(WRMPS) V5.0.2企业版
Follow Me超级搜索引擎V6.5(无数据库版)
搜索动力2009(Asp+Access) Ver 3.2 (思亲版)
5faba百度搜索关键字提取系统
闻讯搜索仿百度视频!官方程序!
搜索动力2009(Asp+Access) Ver 3.1 (春风版)
4pss超级视频搜索V1.6
淘宝皇冠店铺大全纯Html版
商贸版IP地址查询 V1.0
冰封搜索引擎创艺般 V1.0
联盟自动链
搜索动力2008(Asp) Ver 1.13 (纪念版)
搜索动力2008(Asp+Access) Ver 2.5 (纪念版)
Z188网络仿Baidu搜索引擎完美版
百度搜索作弊系统 完美第二版
搜索动力2008(Asp+Access) Ver 2.4 (圣诞版)
搜索动力2008(Asp) Ver 1.12 (圣诞版)
麦布自动链 Ver 1.0
搜索动力2008(Asp+Access) Ver 2.3 (冬季版)
搜索动力2008(Asp) Ver 1.11 (冬季版)
友情链接联盟-顶级友盟V1.0
搜索动力2008(Asp+Access) Ver 2.2 (国庆版)
搜索动力2008(Asp) Ver 1.10 (国庆版)
LinkDyname友情链接管理系统 V1.0
天天DV网智能友情链接管理系统 V3.2
一闪自助链接系统
搜索动力2008(Asp+Access) Ver 2.1 (残奥版)
搜索动力2008(Asp) Ver 1.Z (残奥版)
一梦自助链系统 V1.0.1
搜索动力2008(Asp+Access) Ver 2.0 (测试版)
搜索动力2008(Asp) Ver 1.Y (奥运版)
Chinadi友情链接系统 V1.0
173158网站分类目录管理系统 V4.0
Topview股票查询 V3.0
搜索动力2008 Ver 1.X (正式版)
多关键字排名查询 V1.0
凌风自助友情链接系统 V1.7
崇水链接自动收录系统 V1.2 修正版
傲游多重搜索
QQ空间代码查询
98BK自助友情连接系统V3.0
卡页连接联盟 V1.0
搜客来网址自动排名系统 V3.6
中华查询网自助友情连接系统
711网络搜索V2008
ASP友情链接批量检查工具 V1.03
Sublink自助链接系统Asp版V2.0
搜索动力2008 Ver 1.5 (三月版)
落伍啦Alexa信息查询系统 ASP2.3.13
横搜天下 V1.0 Build 20080310
搜客来自助链接系统 -晓宇美化版
酷网交换链 V3版
仿Coodir网站分类目录管理系统NZWDS V1.5
站长小镇友情连接系统 V2.0
同IP查询的小偷
2FlyLink智能自助友情链接V2.1白金版修正
[网络赚钱联盟] 友情链接系统
安逸吧友链管理系统 V1.0
尹君群英语单词在线查询
Mfkiqpl@友情链接检测程序
711网络商务超级搜索网
商业IIS泛域名搜索引擎作弊系统V4.0
鄢崇达友情链接程序
优极网络智能自助友情链接系统 V2.0
PRC在线IP查询系统 V1.0
最新版纯英文Google高价广告推广站
我乐网自助连接交换系统 V1.0
Maltso麦芽网页搜索 V2.0
50004自助友情连接系统 V1.0
玖玖便民服务查询网 99fad.Cn
Jenfy 藏宝阁
虎旗网多重搜索引擎[仿Maxthon2]
K风视频搜索K-VideoSearch Engine Access V1.0
X339多用户网络收藏夹 V1.0
玖玖手机号码归属地区查询系统
上海数字友情链接系统
K风黄页 K-YP
乌蒙Design链接系统 V2.1
import os import shutil def void_folder(path): # 访问path路径下的文件或文件夹 lst = os.listdir(path) # 打印每一层的文件或文件夹 for name in lst: # 拼接名称,得到绝对路径,判断该文件是否符合是文件夹 real_path = os.path.join(path, name) # 如果是文件夹,则打空格表示,并且递归访问下一层 if os.path.isdir(real_path): # print(name) files = os.listdir(real_path) if len(files) == 0: print("void_folder():"+name) shutil.rmtree(real_path) endindex = len(real_path) - len(name) real_path = real_path[0:endindex] void_folder(real_path) else: void_folder(real_path) # 如果不是文件夹,直接打印,不再递归访问下一层 else: #print(name) pass def void_file(dirPath): dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表 for file in dirs: file_full_name = dirPath + '/' + file file_ext = os.path.splitext(file_full_name)[-1] if file_ext is None or file_ext=="": continue if "rar" == str(file_ext.split(".")[1]): os.remove(file_full_name) if "zip" == str(file_ext.split(".")[1]): os.remove(file_full_name) if "gz" == str(file_ext.split(".")[1]): os.remove(file_full_name) if "tgz" == str(file_ext.split(".")[1]): os.remove(file_full_name) # 查找指定文件夹下所有相同名称的文件 def search_file(dirPath, fileName): dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表 for currentFile in dirs: # 遍历列表 absPath = dirPath + '/' + currentFile if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件 search_file(absPath, fileName) elif currentFile == fileName: print(absPath) # 文件存在,则打印该文件的绝对路径 os.remove(absPath)
简约友情连接系统
亿人收藏 V1.0
亿人黄页 V4.0
忘记BBs免费格子网 V1.0.1
中华查询网便民实用查询系统-四合一版
好址快搜程序
关键词工具
杜子手机号码和IP查询系统 V3.0
超级搜索修正版
建站学友情连接系统
盒子天空超级搜索 V2.1
内蒙阿伦友情连接系统
青创实用搜索(QCDN_SEARCH) V1.0
K风搜索数据库版
麦布分享书签 V1.0
门户网络自助友情链接系统 V2.0
ASP搜索引擎抓取
IMDB搜索引擎V1.1ASP
超级搜索动感版 V2.0
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。