分享86个NET源码,总有一款适合您

简介: 分享86个NET源码,总有一款适合您

NET源码

分享86个NET源码,总有一款适合您

链接:https://pan.baidu.com/s/1JOY-9pJIM7sUhafxupMaZw?pwd=fs2y

提取码:fs2y


下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。

 

import os
from time import sleep
import requests
from bs4 import BeautifulSoup
from docx import Document
from docx.shared import Inches
from framework.access.sprider.SpriderAccess import SpriderAccess
from framework.base.BaseFrame import BaseFrame
from framework.pulgin.Tools import Tools
from sprider.business.DownLoad import DownLoad
from sprider.model.SpriderEntity import SpriderEntity
from sprider.business.SpriderTools import SpriderTools
from sprider.business.UserAgent import UserAgent
class ChinaZCode:
    page_count = 1  # 每个栏目开始业务content="text/html; charset=gb2312"
    base_url = "https://down.chinaz.com"  # 采集的网址  https://sc.chinaz.com/tag_ppt/zhongguofeng.html
    save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
    sprider_count = 99 # 采集数量
    word_content_list = []
    folder_name = ""
    first_column_name = "NET"
    sprider_start_count=488 #已经采集完成第136个 debug
    max_pager=16 #每页的数量
    haved_sprider_count = 0  #
    # 如果解压提升密码错误 ,烦请去掉空格。如果还是不行烦请下载WinRAR
    # https: // www.yadinghao.com / file / 393740984E6754
    # D18635BF2DF0749D87.html
    # 此压缩文件采用WinRAR压缩。
    # 此WinRAR是破解版。
    def __init__(self):
        #A5AndroidCoder().sprider("android", "youxi", 895)  #
        pass
    def sprider(self, title_name="Go"):
        """
        采集 https://down.chinaz.com/class/572_5_1.htm
        NET https://down.chinaz.com/class/572_4_1.htm
        :return:
        """
        if title_name == "PHP":
            self.folder_name = "PHP源码"
            self.second_column_name = "572_5"
        elif title_name == "Go":
            self.folder_name = "Go源码"
            self.second_column_name = "606_572"
        elif title_name == "NET":
            self.folder_name = "NET源码"
            self.second_column_name = "572_4"
        first_column_name=title_name
        merchant = int(self.sprider_start_count) // int(self.max_pager) + 1
        second_folder_name = str(self.sprider_count) + "个" + self.folder_name
        self.save_path = self.save_path+ os.sep + "Code" + os.sep+first_column_name+os.sep +  second_folder_name
        print("开始采集ChinaZCode"+self.folder_name+"...")
        sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
        #print(sprider_url)
        #sprider_url = (self.base_url + "/" +  self.first_column_name + "/" + second_column_name + ".html")
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'UTF-8'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        div_list =soup.find('div', attrs={"class": 'main'})
        div_list=div_list.find_all('div', attrs={"class": 'item'})
        #print(div_list)
        laster_pager_ul = soup.find('ul', attrs={"class": 'el-pager'})
        laster_pager_li = laster_pager_ul.find_all('li', attrs={"class": 'number'})
        laster_pager_url = laster_pager_li[len(laster_pager_li)-1]
        #<a href="zhongguofeng_89.html"><b>89</b></a>
        page_end_number = int(laster_pager_url.string)
        #print(page_end_number)
        self.page_count = merchant
        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(div_list,self.page_count,page_end_number)
                else:
                    if self.haved_sprider_count == self.sprider_count:
                        BaseFrame().debug("采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url =self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name,self.page_count )
                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'UTF-8'
                    soup = BeautifulSoup(response.text, "html5lib")
                    div_list = soup.find('div', attrs={"class": 'main'})
                    div_list = div_list.find_all('div', attrs={"class": 'item'})
                    self.sprider_detail(div_list, self.page_count,page_end_number)
                    pass
            except Exception as e:
                print("sprider()执行过程出现错误" + str(e))
                pass
            self.page_count = self.page_count + 1  # 页码增加1
    def sprider_detail(self, element_list, page_count,max_page):
        try:
            element_length = len(element_list)
            self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
            index = self.sprider_start_index
            while index < element_length:
                a=element_list[index]
                if self.haved_sprider_count == self.sprider_count:
                    BaseFrame().debug("采集到达数量采集停止...")
                    break
                index = index + 1
                sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源共"+str(max_page)+"页资源"
                print(sprider_info)
                #title_image_obj = a.find('img', attrs={"class": 'lazy'})
                url_A_obj=a.find('a', attrs={"class": 'name-text'})
                next_url = self.base_url+url_A_obj.get("href")
                coder_title = url_A_obj.get("title")
                response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                response.encoding = 'UTF-8'
                soup = BeautifulSoup(response.text, "html5lib")
                #print(soup)
                down_load_file_div = soup.find('div', attrs={"class": 'download-list'})
                if down_load_file_div is None:
                    BaseFrame().debug("应该是多版本的暂时不下载因此跳过哦....")
                    continue
                down_load_file_url =self.base_url+down_load_file_div.find('a').get("href")
                #image_obj = soup.find('img', attrs={"class": "el-image__inner"})
                #image_src =self.base_url+image_obj.get("src")
                #print(image_src)
                codeEntity = SpriderEntity()  # 下载过的资源不再下载
                codeEntity.sprider_base_url = self.base_url
                codeEntity.create_datetime = SpriderTools.get_current_datetime()
                codeEntity.sprider_url = next_url
                codeEntity.sprider_pic_title = coder_title
                codeEntity.sprider_pic_index = str(index)
                codeEntity.sprider_pager_index = page_count
                codeEntity.sprider_type = "code"
                if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
                    SpriderAccess().save_sprider(codeEntity)
                else:
                    BaseFrame().debug(coder_title + next_url + "数据采集过因此跳过")
                    continue
                if (DownLoad(self.save_path).down_load_file__(down_load_file_url, coder_title, self.folder_name)):
                    #DownLoad(self.save_path).down_cover_image__(image_src, coder_title)  # 资源的 封面
                    sprider_content = [coder_title,
                                       self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"]  # 采集成功的记录
                    self.word_content_list.append(sprider_content)  # 增加到最终的数组
                    self.haved_sprider_count = self.haved_sprider_count + 1
                    BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
            if (int(page_count) == int(max_page)):
                self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
        except Exception as e:
            print("sprider_detail:" + str(e))
            pass

分类同城网 v1.0

Fanmv Blog主题模板-狐族科技主题 v1.0.1.127

25175中学工资管理系统 v2.2

ASP.NET 4.0电子商城 v4.0

在押人员信息管理系统 v2.0

Fanmv CMS v1.0.2.116

25175大学生综合素质管理系统 v2.02

OA管理后台 v1.0

MVC4+EasyUI商城源码 v1.0

玥雅CMS网站信息管理系统 v1.2

Fanmv Blog主题模板:仿糗事百科 v1.0.1.1220

HEasy客户管理系统 ACCESS版 v1.0

启明星员工通讯录Android手机版 v1.0 alpha

AutoWeb建站王 v6.0

诚一办公OA系统 v1.0

良精.Net企业网站管理系统 v5.7

360站优宝,免费建站系统 v3.0

新翔绩效考核系统普通版 v4.5

快站cms v1.1.0

88Song在线音乐网站源码 v1.0

EasyPlat.Net快速开发平台源码 v4.5

谷昆学校网站管理软件 v3.4

教职工基础信息网上填报源码 v1.0 build1024

赣极购物商城网店建站软件系统 v5.1 免费版

初中校园校务管理系统 v20130928

初中校园成绩查询系统 v20130928

初中校园宿舍管理系统 v20130928

乡巴佬㊣家教网 v1.13.0925

PlugNT CMS 内容管理系统 v4.6 编译版

谷秋精品课程软件 v4.5

易辰人才招聘系统 v2.8

Ycbw.Articles简易建站程序 v1.0.0.0

htshop普及版网店系统 v1.0

某精品家教网源码 v23

青乌序Blog(qwxblog) v1.0.3.705

95Shop仿醉品商城 v1.0

一步半YBB企业网站管理系统 v2.7

推出网搜索小偷程序 v30623

TonyShareAccess V2.4正式版 v2.4

TonyShareSQL V2.4正式版 v2.4

JumboECMS v1.3.5 编译版

威流淘宝客返现程序(淘客返利) v4.0

JumbotCms v6.6.0 编译版

迅思科尔企业网站建设管理系统KeerWEB v2.0

飘萍网址导航 v3.1

蓝色博客网站 v2013

军警部队网站管理系统 v2013

建筑工程公司网站 v2013

在线服装商城 v2013

集团公司网站 v2013

通用网站模板 v1.0

智能学校网站管理系统 v0.1

网奇CMS网站管理系统 v5.9 SP1

GBlog好文本博客系统 v2.0

GGCMS网站管理系统 v1.2.1

创想商务B2B网站管理系统 v3.1

PlugNT BBS 论坛系统 v3.6

5kCMS K1 网站内容管理系统 v0.1

有花淘宝客网站程序 v4.0

沙之丘淘宝客 v3.2

美客企业文件管理系统 v1.0

千博企业网站管理系统标准版 v2013 Build0206

超强自定义问卷调查系统 v5.9

创想商务B2B网站橙色模板 v3.0

淘地鼠cms v1.0 正式版

50cms建站系统 v3.0.11 mssql版

刘宝宝文件管理器 v0.3

我不忙-QQ登陆SDK v2.1.0410

我不忙-新浪微博SDK v2.1.0408

BlogEngine.NET(博易) v2.7 源码版

BlogEngine.NET(博易) v2.7

HIWEB学校网站管理系统.NET版  v2.2012.09.25

B2C电子商城源码 v1.1

企业信息资源管理系统 v1.1

企业门户网站源码 v1.1

KstCMS v1.0.0.0

懒人工作通OA (WebOffice支持版) v5.7.2

企业级轻博客网站 v1.1

优聪宝贝早教网站 v4.0

奇文小说连载系统模板

奇文软件下载管理系统 v1.1

启明星留言薄 v1.0

浮动留言板(JQuery 插件+Ajax) v1.0

iNethinkCMS新闻信息管理系统 v1.2 编译版

MCShop微维网上商城系统独立网店系统(非MVC版) v3.06

.NET超炫Flash整站程序 v1.0

至尊国际网资连锁销售程序全功能版 v2.0

电子商务订货系统订货宝 v3.1.0

小泥鳅(Loachs)独立博客源码版 v1.3 正式版

小泥鳅(Loachs)独立博客编译版 v1.3 正式版

cndian淘站群版 v5.0

Hiweb网站快车10周年纪念版 v2.2012.06.29

LearnSite信息技术学习平台 v1.2.0.1 build20120708

月色博客 v1.0

都来订网络外卖订餐系统 v1.8.6

Roark Meeting会议管理系统 v1.0 beta 源码版

仿旅游网站dt85整站源码 v2.0

Zoomla!逐浪CMS v6.0

中诺企业网站CMS v2.0

import os
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
    dirs = os.listdir(dirPath)  # 查找该层文件夹下所有的文件及文件夹,返回列表
    for currentFile in dirs:  # 遍历列表
        absPath = dirPath + '/' + currentFile
        if os.path.isdir(absPath):  # 如果是目录则递归,继续查找该目录下的文件
            search_file(absPath, fileName)
        elif currentFile == fileName:
            print(absPath)  # 文件存在,则打印该文件的绝对路径
            os.remove(absPath)

 

最后送大家一首诗:

山高路远坑深,

大军纵横驰奔,

谁敢横刀立马?

惟有点赞加关注大军。

 

目录
相关文章
|
6月前
|
开发框架 .NET BI
ASP.NET公立医院健康体检信息管理系统源码
健康体检信息管理系统是专门针对医院体检中心的日常业务运作的特点和流程,结合数字化医院建设要求进行设计研发的一套应用系统。该系统覆盖体检中心的所有业务,完成从预约、登记、收费、检查、检验、出报告、分析、报表等所有工作,规范了体检流程,提高了工作效率。体检系统为每个体检者建立一套完整的体检档案,与病人的门诊、住院诊疗信息有机集成, 真正体现数字化医院以病人为中心的建设原则。
108 1
|
6月前
|
开发框架 安全 .NET
ASP.NET三甲医院手术麻醉信息管理系统源码 对接麻醉机、监护仪、血气分析仪
辅助医院建设 •支持三级医院评级需求 •支持智慧医院评级需求 •支持互联互通评级需求 •支持电子病历评级需求
68 0
|
6月前
|
开发框架 Oracle 关系型数据库
ASP.NET实验室LIS系统源码 Oracle数据库
LIS是HIS的一个组成部分,通过与HIS的无缝连接可以共享HIS中的信息资源,使检验科能与门诊部、住院部、财务科和临床科室等全院各部门之间协同工作。 
78 4
|
6月前
|
开发框架 前端开发 .NET
分享119个ASP.NET源码总有一个是你想要的
分享119个ASP.NET源码总有一个是你想要的
133 1
|
6月前
|
开发框架 前端开发 JavaScript
盘点72个ASP.NET Core源码Net爱好者不容错过
盘点72个ASP.NET Core源码Net爱好者不容错过
167 0
|
6月前
|
开发框架 前端开发 JavaScript
分享129个ASP.NET源码总有一个是你想要的
分享129个ASP.NET源码总有一个是你想要的
92 0
|
6月前
|
开发框架 前端开发 .NET
分享68个ASP.NET源码总有一个是你想要的
分享68个ASP.NET源码总有一个是你想要的
653 0
|
6月前
|
开发框架 前端开发 JavaScript
分享53个ASP.NET源码总有一个是你想要的
分享53个ASP.NET源码总有一个是你想要的
95 0
|
6月前
|
开发框架 前端开发 .NET
分享42个ASP.NET源码总有一个是你想要的
分享42个ASP.NET源码总有一个是你想要的
59 0
|
6月前
|
存储 开发框架 前端开发
前端框架EXT.NET Dotnet 3.5开发的实验室信息管理系统(LIMS)成品源码 B/S架构
发展历史:实验室信息管理系统(LIMS),就是指通过计算机网络技术对实验的各种信息进行管理的计算机软、硬件系统。也就是将计算机网络技术与现代的管理思想有机结合,利用数据处理技术、海量数据存储技术、宽带传输网络技术、自动化仪器分析技术,来对实验室的信息管理和质量控制等进行全方位管理的计算机软、硬件系统,以满足实验室管理上的各种目标(计划、控制、执行)。
68 1
下一篇
无影云桌面