分享55个ASP精品程序源码,总有一款适合您
55个ASP精品程序源码下载链接:https://pan.baidu.com/s/1csXNiNvSesk-YiVXi-U8tA?pwd=hzx0
提取码:hzx0
Python采集代码下载链接:采集代码.zip - 蓝奏云
import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加
城镇谋生记
节日祝福网
新浪博客网页在线编辑器ASP版(带图片上传)
非主流QQ空间站 V3.1
漂亮的紫晶之恋(Flash+ACC+ASP)
草根文学网祝福墙、爱墙源码(超级美化、个性版)
EasyIDE Framework
酷站欣赏
2008北京奥运会祝福网V1.2 Gb2312版
象数抽签
动网论坛 8.2 MSSQL OR ACCESS WAP 插件
完美政府网站管理系统源码V0801系列之V0808完美司法版发布
爱酷窝恶搞网络证件在线生成加强版(69种)绝对完整
网络搞笑个种证件在线生成程序整站
QQ闪字程序
风云旅游酒店管理系统 2008
新炫网络《爱只送给你》情人节特献
择吉黄历
贵州网盟教学网整站模板V2006修正版
蓉华网络酒店宾馆预定系统 V3.0
姓名缘分测试程序第二版
ASP功能增强函数
中国代码网在线工具打包下载
泡Q网V1.1版 QQ非主流空间代码站常用建站整站源码
梦幻云南旅游网 完整版全站程序
酒店网站管理系统
电脑店自助建站系统
适合专门做Firefox的整站
QQ空间 - 踩踩吧V2.0
QQ空间互踩程序
北京2008奥运会倒计时源码
校园招贴全站程序
悠泡网QQ闪字程序(Www.Yopou.Com)
JTCMS系统4.0网站管理系统
极酷博客整站源码
极酷FLASH滚动展示
威龙网站后门1.0版本1.0.Rar
个人域名出售管理系统V1.0
VSFLYCOM_SHOP_CMS1.0
冰水在线多用户播放器 BS 1.0
711分类信息网V2007.6A(HTML免费版本)
阿超Flash主站
KesionCMS API整合接口下载
无忧网游官方站点程序(热血江湖)
711酒店网站管理系统V2007.5(免费版本)
久久站长网(创力Cms内核)整站 V3.1
无忧传奇官方站点程序(帝国时代)
711门户网站管理系统V2007.5A
711二手信息网管理系统V2007.5B
711_QQ出售系统 V2.0
科海网络产品发布系统(二级分类)070401(正版)
猪LOVE婷论坛程序
Asp数据操作组件(百万级分页)含DLL源代码
临沂市场信息网CMS官方版
漂亮的许愿程序
def sprider(self,sprider_name,sprider_count,start_number, pager_number,sprider_type,is_show_browse,root_path, first_column_name,second_column_name,is_record_db): """ http://www.downcode.com/sort/j_1_2_1.shtml :param sprider_name: :return: """ self.first_folder_name=sprider_type.upper() self.base_path=root_path self.first_column_name = first_column_name self.second_column_name = second_column_name self.sprider_start_count=start_number self.is_record_db=is_record_db BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...") BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "") BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "") sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url) self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集 self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name BaseFrame().right("本次采集参数:file_path=" + self.file_path + "") # 浏览器的下载路径 self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\" BaseFrame().right("本次采集参数:down_path=" + self.down_path + "") # First/PPT/88个动态PPT模板/动态PPT模板 self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name BaseFrame().right("本次采集参数:save_path=" + self.save_path + "") if os.path.exists(self.down_path) is True: shutil.rmtree(self.down_path) if os.path.exists(self.down_path) is False: os.makedirs(self.down_path) if os.path.exists(self.save_path) is True: shutil.rmtree(self.save_path) if os.path.exists(self.save_path) is False: os.makedirs(self.save_path) response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") #print(soup) element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) page_end_number = 1 page_end_url = "" page_end_title = soup.find("a", attrs={"title": '最后页'}) page_end_url = page_end_title.get("href") if page_end_url is None or page_end_url == "": page_end_number = 1 else: page_end_number = (page_end_url.split(".shtml")[0].split("_")[3]) self.page_count = self.merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(element_list, page_end_number,sprider_count) pass else: if int(self.haved_sprider_count) == int(sprider_count): BaseFrame().debug("sprider采集到达数量采集停止...") BaseFrame().debug("开始写文章...") SpriderTools.builder_word(self.second_folder_name, self.word_content_list, self.file_path, self.word_image_count, self.first_folder_name) SpriderTools.copy_file(self.word_content_list, self.save_path, self.second_folder_name, self.file_path) SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name, self.second_column_name, self.page_count) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'gb2312' soup = BeautifulSoup(response.text, "html5lib") element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'}) self.sprider_detail(element_list, page_end_number,sprider_count) pass self.page_count = self.page_count + 1 # 页码增加1 except Exception as e: BaseFrame().error("sprider()执行过程出现错误:" + str(e))
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。