NET源码
分享77个NET源码,总有一款适合您
NET源码下载链接:https://pan.baidu.com/s/1vhXwExVAye5YrB77Vxif8Q?pwd=zktx
提取码:zktx
下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。
import os from time import sleep import requests from bs4 import BeautifulSoup from docx import Document from docx.shared import Inches from framework.access.sprider.SpriderAccess import SpriderAccess from framework.base.BaseFrame import BaseFrame from framework.pulgin.Tools import Tools from sprider.business.DownLoad import DownLoad from sprider.model.SpriderEntity import SpriderEntity from sprider.business.SpriderTools import SpriderTools from sprider.business.UserAgent import UserAgent class ChinaZCode: page_count = 1 # 每个栏目开始业务content="text/html; charset=gb2312" base_url = "https://down.chinaz.com" # 采集的网址 https://sc.chinaz.com/tag_ppt/zhongguofeng.html save_path = "D:\\Freedom\\Sprider\\ChinaZ\\" sprider_count = 77 # 采集数量 word_content_list = [] folder_name = "" first_column_name = "NET" sprider_start_count=66 #已经采集完成第136个 debug max_pager=16 #每页的数量 haved_sprider_count = 0 # # 如果解压提升密码错误 ,烦请去掉空格。如果还是不行烦请下载WinRAR # https: // www.yadinghao.com / file / 393740984E6754 # D18635BF2DF0749D87.html # 此压缩文件采用WinRAR压缩。 # 此WinRAR是破解版。 def __init__(self): #A5AndroidCoder().sprider("android", "youxi", 895) # pass def sprider(self, title_name="Go"): """ 采集 https://down.chinaz.com/class/572_5_1.htm NET https://down.chinaz.com/class/572_4_1.htm :return: """ if title_name == "PHP": self.folder_name = "PHP源码" self.second_column_name = "572_5" elif title_name == "Go": self.folder_name = "Go源码" self.second_column_name = "606_572" elif title_name == "NET": self.folder_name = "NET源码" self.second_column_name = "572_4" first_column_name=title_name merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 second_folder_name = str(self.sprider_count) + "个" + self.folder_name self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep + second_folder_name print("开始采集ChinaZCode"+self.folder_name+"...") sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name)) #print(sprider_url) #sprider_url = (self.base_url + "/" + self.first_column_name + "/" + second_column_name + ".html") response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'UTF-8' soup = BeautifulSoup(response.text, "html5lib") #print(soup) div_list =soup.find('div', attrs={"class": 'main'}) div_list=div_list.find_all('div', attrs={"class": 'item'}) #print(div_list) laster_pager_ul = soup.find('ul', attrs={"class": 'el-pager'}) laster_pager_li = laster_pager_ul.find_all('li', attrs={"class": 'number'}) laster_pager_url = laster_pager_li[len(laster_pager_li)-1] #<a href="zhongguofeng_89.html"><b>89</b></a> page_end_number = int(laster_pager_url.string) #print(page_end_number) self.page_count = merchant while self.page_count <= int(page_end_number): # 翻完停止 try: if self.page_count == 1: self.sprider_detail(div_list,self.page_count,page_end_number) else: if self.haved_sprider_count == self.sprider_count: BaseFrame().debug("采集到达数量采集停止...") BaseFrame().debug("开始写文章...") self.builder_word(self.folder_name, self.save_path, self.word_content_list) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") break next_url =self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name,self.page_count ) response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'UTF-8' soup = BeautifulSoup(response.text, "html5lib") div_list = soup.find('div', attrs={"class": 'main'}) div_list = div_list.find_all('div', attrs={"class": 'item'}) self.sprider_detail(div_list, self.page_count,page_end_number) pass except Exception as e: print("sprider()执行过程出现错误" + str(e)) pass self.page_count = self.page_count + 1 # 页码增加1 def sprider_detail(self, element_list, page_count,max_page): try: element_length = len(element_list) self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager) index = self.sprider_start_index while index < element_length: a=element_list[index] if self.haved_sprider_count == self.sprider_count: BaseFrame().debug("采集到达数量采集停止...") break index = index + 1 sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源共"+str(max_page)+"页资源" print(sprider_info) #title_image_obj = a.find('img', attrs={"class": 'lazy'}) url_A_obj=a.find('a', attrs={"class": 'name-text'}) next_url = self.base_url+url_A_obj.get("href") coder_title = url_A_obj.get("title") response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url)) response.encoding = 'UTF-8' soup = BeautifulSoup(response.text, "html5lib") #print(soup) down_load_file_div = soup.find('div', attrs={"class": 'download-list'}) if down_load_file_div is None: BaseFrame().debug("应该是多版本的暂时不下载因此跳过哦....") continue down_load_file_url =self.base_url+down_load_file_div.find('a').get("href") #image_obj = soup.find('img', attrs={"class": "el-image__inner"}) #image_src =self.base_url+image_obj.get("src") #print(image_src) codeEntity = SpriderEntity() # 下载过的资源不再下载 codeEntity.sprider_base_url = self.base_url codeEntity.create_datetime = SpriderTools.get_current_datetime() codeEntity.sprider_url = next_url codeEntity.sprider_pic_title = coder_title codeEntity.sprider_pic_index = str(index) codeEntity.sprider_pager_index = page_count codeEntity.sprider_type = "code" if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None: SpriderAccess().save_sprider(codeEntity) else: BaseFrame().debug(coder_title + next_url + "数据采集过因此跳过") continue if (DownLoad(self.save_path).down_load_file__(down_load_file_url, coder_title, self.folder_name)): #DownLoad(self.save_path).down_cover_image__(image_src, coder_title) # 资源的 封面 sprider_content = [coder_title, self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"] # 采集成功的记录 self.word_content_list.append(sprider_content) # 增加到最终的数组 self.haved_sprider_count = self.haved_sprider_count + 1 BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个") if (int(page_count) == int(max_page)): self.builder_word(self.folder_name, self.save_path, self.word_content_list) BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!") except Exception as e: print("sprider_detail:" + str(e)) pass
web表单智能填充器 v2020
学校微机室自动管理系统 v1.3
动易BizIdea企业电子商务管理系统 v6.2.0
优索教务管理系统 v9.3.2
易点内容管理系统 DianCMS v7.1.0 SQL版
易点内容管理系统 DianCMS v7.1.0 ACC版
E桶金源码交易系统 v1.5
JumbotCms v7.3.1 源码版
自适应企业网站模板源码 v2.0
职业考证在线学习平台 v1.0 共享版
KesionICMS智能建站系统 v8.2020.12.30
辖区核酸检测管理系统 v1.0.0
dboxShare开源企业网盘系统 v2.0.0.2012
高博学校人事工资管理系统 v20201028
微厦企业商学院学习平台 v2020 社区版
高博学校网站内容管理系统 v20201015
DreamerShop梦想家网店系统 v6.0
启明星个人小博客blog v2.0
启明星视频管理系统video v33.0
netnr-blog博客系统 v2.x
启明星员工工资自助查询系统 v1.0
逐浪CMS v8.1.5
工作易人才系统 v200715
启明星工程项目投标系统bid v26.0
SiteServer CMS v6.14 正式版
优索学生成绩管理系统 v9.2.4
优索绩效考核系统 v7.3.0
微点慧采电子招标采购平台 v1.0
AngelShop外贸商城网站管理系统 v1.0
LebiShop多语言网店系统 v7.0.06
ASP.NET MVC通用角色权限管理系统源码 v2.0
企业信使 v2.0
新乙王企业网站内容管理cms系统源码 v4.2
启明星工作日志Worklog系统 v31.0
魔方CRM客户管理系统 v2
QCRM客户关系管理系统 v1.1.4
Util6 MIS(优六综合管理系统) v2.7
汽车网程序E-AUTO X3.0 v2019.9.30
财务公司网站模板(HDHCMS) v1.0
GOODNET中英文企业网站源码 v2.0
物流公司网站源码 v2.0
进销存管理系统 v1.0.0
售卡卡盟商城 v1.0.0
微商客户分级代理发货系统 v1.0.0
新翔驾校综合管理系统 v1.0
启明星采购系统 purchase(含手机版) v30.0
近乎(spacebuilder) v5.3.1
LdCms.NetCore网站内容信息管理系统 v1.0.1
PageAdmin学校网站管理系统 v4.0.07
推网企业网站系统 v1.5
装饰设计网站源码(包括手机版) v2.0
超强自定义问卷调查系统 v2019
KesionIMALL在线商城系统 v6.0
KesionICMS智能建站系统 v6.0
小书童开源免费二维码批量生成工具 v1.0
Oauth2统一登录平台 v1.2
企站帮微商城系统Access版 v1.4
工资查查移动工资条 v1.0.1
Zoomla!逐浪CMS2 x3.9.6
KesionIEXAM在线考试系统 v6.0.181224
档案信息管理系统 v2.0
pageadmin企业网站管理系统 v4.0 build181228
启明星员工请假系统appform v25.0
Tmmi Web Api接口自动测试软件 v0.3.0
公共财产管理系统 v1.0
试客源码试客系统试用程序 v3.6
启明星员工档案管理系统profile v23.0
乡巴佬淘宝客 v2.18.0915
营销型企业网站源码(包含手机版) v2.0
WebBoxCMS企业网站系统 v2.3.17 UTF8
乘风asp.net探针 v1.3
中搜企业建站系统 v1.0
kkWish订单管理系统 v1.0
点触小程序平台源码.NETCORE版本 v1.19
懒人工作通OA SqlServer版 v6.35
乐彼多语言网上商城系统(LebiShop) v5.1.17 .NET开源版
新翔通用人事管理系统 v1.0
import os # 查找指定文件夹下所有相同名称的文件 def search_file(dirPath, fileName): dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表 for currentFile in dirs: # 遍历列表 absPath = dirPath + '/' + currentFile if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件 search_file(absPath, fileName) elif currentFile == fileName: print(absPath) # 文件存在,则打印该文件的绝对路径 os.remove(absPath)
最后送大家一首诗:
山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。