分享66个ASP精品程序源码,总有一款适合您
66个ASP精品程序源码下载链接:https://pan.baidu.com/s/1y0RTl_jBXvgOLCzAB2TRFA?pwd=93wl
提取码:93wl
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
易家购物系统在线支付版
上网速度测试Asp文件
新源教育在线
倾城之恋婚纱网
精美气象预报程序
YOOwo全站程序-美化的不错
蜚语无邪许愿树
IQ大挑战 Www.FJXN.ComIQ
网站推广联盟系统(修改版)
2005新年超COOL超好玩祝福网页
青春海洋全站程序
广东E时代脑筋急转弯
爽快导航网2.1
林苗主页 V2.0 带后台
海心在线2005BETE版
林苗个人主页
休闲中心BBS全版无错美化插件版New
天府学生网修正版
《ASP网站QQ在线咨询插件》
一搜图片搜索小偷完美版
网站远程监控(超级管理)系统
中青网CMS美化功能超强终极版整站程序
[原创]校园青春FLASH动画程序
馨港房产
九佰度上网导航全新生成Html版
Asp网站全程跟踪监控(超级管理)系统 V1.0免费版
第九互动金曲宝库+FLASH小偷+音乐前线(无错版)
Asp网站全程跟踪监控(超级管理)系统 V1.0版
本色时代网2.3版
仿7K7K站FLASH整站
情感文学-小小工作室
阿亮天空2.0
飞翔科技整站
87q.Com站长专用系统(超级大型8c7版)
夜孩子互联恐怖鬼故站
5677.Net星座运程程序
紫金论坛音乐播放器插件
8c7.Com软件+搜索小偷
天空网址全站程序下载
商务世纪网址集锦
好网址Hao55.Com网址程序
流星娱乐电影站
100个ASP学习小程序
中国频道共享平台Template 4.0
纯真设计天空整站程序
卓越网站快车建站系统 V6.13 SP2
JR 多用户网络收藏夹程序 版本号 020116
青岛在线人才市场系统
网人代码酷1.0(带数据库)
卓越网站快车建站系统 6.0
汽车摩托车全站
逍遥品网程序
Ehulu.Com
梦想品网.程序
天锋MTV在线欣赏 1.6
逸风品网程序增强版
天下网吧联盟2.0
HOT学历证明查询系统
漫步精品程序V1.0
TXSite(通用网站系统)最终版
动感教育网—人才市场
大中小学电子教案系统
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。