分享105个PHP源码,总有一款适合您

简介: 分享105个PHP源码,总有一款适合您

链接:https://pan.baidu.com/s/1PcuqIp7VRyRcjVFHDCBhYQ?pwd=aqj8

提取码:aqj8

PHP源码

 

分享105个PHP源码,总有一款适合您


下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。

螃蟹poend博客日文模板 v1.0

Favicon.ico远程获取插件 v1.0

微动CMS企业官网 v1.0

易看影音伪静态版 v1.01

UZCMS镜像采集系统娱乐引流版 v3.1

SK电影小偷伪静态缓存升级版 v1.1

婚礼请柬摄影销售网站源码 v1.0

ecshop微信商城接口 v2.3

红色织梦淘宝客购物网站模板 v1.0

YYjia安卓应用市场网站系统(YYjiacms) v3.2 正式版

ECTouch移动商城系统 v1.1

帝国CMS HTML5自适应模板 v7.2

Discuz!同盾防灌水必备插件 v0.3

多星宇贴吧签到助手 v10.0

全角半角在线转换 v1.0

BIGACE CMS v3.0

小生淘宝客无须api调用打折系统 v4.3

电脑维修管理系统 v1.03

小草淘宝客 v5.0

吃货网整站源码(含数据+采集) v5.7

陌生人随机聊天室 v1.2

pipicms资源采集插件 v1.0

私服发布网站管理系统 v1.2

淘宝自动发货提货系统 v1.0

ip手机号码地址查询 v1.0

鑫宇秒赞 v1.4.3

如意雅阁o2oMall集市 v1.0

wordpress调查问卷插件slickquiz汉化版 v1.3.7.1

淘乐云点播 v1.0

Yod Framework v1.4.0

坐车网小偷程序 v1.0

Discuz!免签约支付宝积分充值插件 v2.1.5

笑傻你整站程序 v1.0

心雨电台 v1.0

iProber PHP探针特别增强版 v0.026

楼中楼类贴吧论坛程序 v1.7.2

Demila数字内容交易系统 v1.0

国微CMS门户版(原php168 S系列) v20150407

AwMall多用户微信商城系统 v2.0

网盘搜索引擎 v1.3

PHP手机归属地查询 v1.0

PHP表单程序 v1.0

WebFTP(支持ZIP在线解压) v3.6.2

xSite企业自助建站软件 v1.1.8.4

笔聚阁杰奇小说最新模板 v1.7

瑞思企业网站带手机版 v1.0

装饰公司网站 电脑版+3G版 v1

热腾CMS(RTCMS) v1.5 bulid0120

电影网站源码模板 v1.0

乐兔淘购物分享系统(淘宝客导购) v2.9

小游戏网站系统 v1.2

先锋内容管理系统 v1.5

暗月挂Q系统 v1.1

易迅企业网站管理系统新年版 v1.0.1

NITC企业智能营销系统(定海神真) v3.3 经典正式版

飞飞大气简洁蓝色模板 v2.8

苹果cms视频采集插件 v1.0

Yourphp企业网站管理系统 v3.0 build 20141119

黑红色织梦网络建站公司源码模板 v1.0

DIYWAP手机微网站内容管理系统 v6.3

MZIP038-高端dedecms博客 v2.3

FlyingNews 新闻杂志 wordpress主题 v3.4.5

wordpress:Cherry 新闻杂志主题 v3.6.5

凯翼政府网站系统PHP版 v1.0

双鱼林PHP基于MVC学生信息查询管理系统 v1.0

WordPress淘宝客商品一键采集插件 v1.01

WebIM-for-ThinkSNS插件 v5.6

高端大气婚纱摄影公司织梦源码 v5.7

wordpress英文企业多功能主题 v3.9

TXTCMS内容管理系统(不用数据库) x1.32

dedecms高仿流行安卓网整站程序 v5.7

梦想cms(lmxcms)网站管理系统 v1.4

个性单栏wordpress博客主题 v3.9

科威php防火墙 v1.1 beta

Ecshop韩都衣舍2014最新豪华版 v2.7.3

N168多用户微信公众平台 v7.0

dedecms大气设计印刷企业系统 v1.0

微动100多用户微信服务平台带分销系统 v3.2

TripEC旅游电商门户网站 v1.1.0

单栏简单wordpress主题 v3.9

帝国cms网络公司网站整站 v7.0

门户类wordpress主题 v3.9

单栏自适应wordpress主题 v3.9

Oxwall社交软件汉化包 v1.7.1

discuz大气简约旅游论坛风格 v1.0

万品网免费开源OA系统 v1.0

discuz黑色摄影风格模板 v1.0

wordpress主题:仿google清爽主题 v3.9

永纯积分发卡平台 v4.2 加密版

双鱼林PHP基于MVC教务选课成绩管理系统 v1.0

discuz地方门户简洁大方风格模板 v1.0

wordpress经典的淘宝客主题 v3.9

discuz X3.2企业模板 v1.0

wordpress团购淘客主题 v3.9

飞天侠仿折800模板源码程序 v6.0

wordpress图片展示类主题 v3.9

XYHCMS网站管理系统 v2.0 繁体版

OYOencode php代码加密 v1.0

鱼福CMS微信公众号导航 v2.4

清新淡雅博客主题Nocower-one v1.0

读怪PHP小说连载系统 v1.5

网络工作室源码 v1.0

云集科技笑话小偷WAP简单版php v1.7

云阅小说系统 v1.0

uwa 通用建站升级程序 v2.1.0

雪箭Wordpress淘宝客主题Jumei v1.0

笔记本网址导航源码 v3.0

阿旺wifi智能系统Free v1.0

云站宝企业建站程序 v1.1 build201408 简体中文 UTF-8

import os
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
    dirs = os.listdir(dirPath)  # 查找该层文件夹下所有的文件及文件夹,返回列表
    for currentFile in dirs:  # 遍历列表
        absPath = dirPath + '/' + currentFile
        if os.path.isdir(absPath):  # 如果是目录则递归,继续查找该目录下的文件
            search_file(absPath, fileName)
        elif currentFile == fileName:
            print(absPath)  # 文件存在,则打印该文件的绝对路径
            os.remove(absPath)

 

链接:https://pan.baidu.com/s/1PcuqIp7VRyRcjVFHDCBhYQ?pwd=aqj8

提取码:aqj8

import os
from time import sleep
import requests
from bs4 import BeautifulSoup
from docx import Document
from docx.shared import Inches
from framework.access.sprider.SpriderAccess import SpriderAccess
from framework.base.BaseFrame import BaseFrame
from framework.pulgin.Tools import Tools
from sprider.business.DownLoad import DownLoad
from sprider.model.SpriderEntity import SpriderEntity
from sprider.business.SpriderTools import SpriderTools
from sprider.business.UserAgent import UserAgent
class ChinaZCode:
    page_count = 1  # 每个栏目开始业务content="text/html; charset=gb2312"
    base_url = "https://down.chinaz.com"  # 采集的网址  https://sc.chinaz.com/tag_ppt/zhongguofeng.html
    save_path = "D:\\Freedom\\Sprider\\ChinaZ\\"
    sprider_count = 109# 采集数量
    haved_sprider_count = 0  # 已经采集的数量正在采集第91页的第15个资源
    word_content_list = []
    folder_name = ""
    first_column_name = "PHP"
    sprider_start_count=1940 #已经采集完成第136个 debug
    max_pager=16 #每页的数量
    # 如果解压提升密码错误 ,烦请去掉空格。如果还是不行烦请下载WinRAR
    # https: // www.yadinghao.com / file / 393740984E6754
    # D18635BF2DF0749D87.html
    # 此压缩文件采用WinRAR压缩。
    # 此WinRAR是破解版。
    def __init__(self):
        #A5AndroidCoder().sprider("android", "youxi", 895)  #
        pass
    def sprider(self, title_name="PHP"):
        """
        采集 https://down.chinaz.com/class/572_5_1.htm
        :return:
        """
        if title_name == "PHP":
            self.folder_name = "PHP源码"
            self.second_column_name = "572_5"
        elif title_name == "Go":
            self.folder_name = "Go源码"
            self.second_column_name = "606_572"
        merchant = int(self.sprider_start_count) // int(self.max_pager) + 1
        second_folder_name = str(self.sprider_count) + "个" + self.folder_name
        self.save_path = self.save_path+ os.sep + "Code" + os.sep +  second_folder_name
        print("开始采集ChinaZCode"+self.folder_name+"...")
        sprider_url = (self.base_url + "/class/{0}_1.htm".format(self.second_column_name))
        #print(sprider_url)
        #sprider_url = (self.base_url + "/" +  self.first_column_name + "/" + second_column_name + ".html")
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'UTF-8'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        div_list =soup.find('div', attrs={"class": 'main'})
        div_list=div_list.find_all('div', attrs={"class": 'item'})
        #print(div_list)
        laster_pager_ul = soup.find('ul', attrs={"class": 'el-pager'})
        laster_pager_li = laster_pager_ul.find_all('li', attrs={"class": 'number'})
        laster_pager_url = laster_pager_li[len(laster_pager_li)-1]
        #<a href="zhongguofeng_89.html"><b>89</b></a>
        page_end_number = int(laster_pager_url.string)
        #print(page_end_number)
        self.page_count = merchant
        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(div_list,self.page_count,page_end_number)
                else:
                    if self.haved_sprider_count == self.sprider_count:
                        BaseFrame().debug("采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url =self.base_url + "/class/{0}_{1}.htm".format(self.second_column_name,self.page_count )
                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'UTF-8'
                    soup = BeautifulSoup(response.text, "html5lib")
                    div_list = soup.find('div', attrs={"class": 'main'})
                    div_list = div_list.find_all('div', attrs={"class": 'item'})
                    self.sprider_detail(div_list, self.page_count,page_end_number)
                    pass
            except Exception as e:
                print("sprider()执行过程出现错误" + str(e))
                pass
            self.page_count = self.page_count + 1  # 页码增加1
    def sprider_detail(self, element_list, page_count,max_page):
        try:
            element_length = len(element_list)
            self.sprider_start_index = int(self.sprider_start_count) % int(self.max_pager)
            index = self.sprider_start_index
            while index < element_length:
                a=element_list[index]
                if self.haved_sprider_count == self.sprider_count:
                    BaseFrame().debug("采集到达数量采集停止...")
                    break
                index = index + 1
                sprider_info = "正在采集第" + str(page_count) + "页的第" + str(index) + "个资源共"+str(max_page)+"页资源"
                print(sprider_info)
                #title_image_obj = a.find('img', attrs={"class": 'lazy'})
                url_A_obj=a.find('a', attrs={"class": 'name-text'})
                next_url = self.base_url+url_A_obj.get("href")
                coder_title = url_A_obj.get("title")
                response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                response.encoding = 'UTF-8'
                soup = BeautifulSoup(response.text, "html5lib")
                #print(soup)
                down_load_file_div = soup.find('div', attrs={"class": 'download-list'})
                if down_load_file_div is None:
                    BaseFrame().debug("应该是多版本的暂时不下载因此跳过哦....")
                    continue
                down_load_file_url =self.base_url+down_load_file_div.find('a').get("href")
                #image_obj = soup.find('img', attrs={"class": "el-image__inner"})
                #image_src =self.base_url+image_obj.get("src")
                #print(image_src)
                codeEntity = SpriderEntity()  # 下载过的资源不再下载
                codeEntity.sprider_base_url = self.base_url
                codeEntity.create_datetime = SpriderTools.get_current_datetime()
                codeEntity.sprider_url = next_url
                codeEntity.sprider_pic_title = coder_title
                codeEntity.sprider_pic_index = str(index)
                codeEntity.sprider_pager_index = page_count
                codeEntity.sprider_type = "code"
                if SpriderAccess().query_sprider_entity_by_urlandindex(next_url, str(index)) is None:
                    SpriderAccess().save_sprider(codeEntity)
                else:
                    BaseFrame().debug(coder_title + next_url + "数据采集过因此跳过")
                    continue
                if (DownLoad(self.save_path).down_load_file__(down_load_file_url, coder_title, self.folder_name)):
                    #DownLoad(self.save_path).down_cover_image__(image_src, coder_title)  # 资源的 封面
                    sprider_content = [coder_title,
                                       self.save_path + os.sep + "image" + os.sep + coder_title + ".jpg"]  # 采集成功的记录
                    self.word_content_list.append(sprider_content)  # 增加到最终的数组
                    self.haved_sprider_count = self.haved_sprider_count + 1
                    BaseFrame().debug("已经采集完成第" + str(self.haved_sprider_count) + "个")
            if (int(page_count) == int(max_page)):
                self.builder_word(self.folder_name, self.save_path, self.word_content_list)
                BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
        except Exception as e:
            print("sprider_detail:" + str(e))
            pass
    def builder_word(self, word_title, save_path, list_files):
        """
        输出产物是word文件
        :param word_title: 文件的标题
        :param save_path: 文件的保存路径
        :param list_files: 文件集合(单个内容)
        :return:
        """
        try:
            self.copy_file(self.save_path)
            print("Create Word"+word_title)
            file_count= len(list_files)
            self.gen_passandtxt(file_count,word_title)
            document = Document()
            document.add_heading(word_title, level=2)
            document.add_paragraph("分享"+str(file_count)+"个"+str(word_title)+",总有一款适合您\r\n"
                                   "下面是文件的名字,我放了一些图片,文章里不是所有的图主要是放不下...,大家下载后可以看到。")
            ppt_tieles = ""
            for files in list_files:
                ppt_tieles = ppt_tieles + str(files[0]) + "\r"
            document.add_paragraph(ppt_tieles)
            for files in list_files:
                try:
                    document.add_paragraph(files[0])
                    document.add_picture(files[1], width=Inches(3))
                except Exception as e:
                    pass
            document.add_paragraph("最后送大家一首诗:")
            paragraph = document.add_paragraph()  # 单独控制
            paragraph.add_run("山高路远坑深,\r")
            paragraph.add_run("大军纵横驰奔,\r")
            paragraph.add_run("谁敢横刀立马?\r")
            paragraph.add_run("惟有点赞加关注大军。\r")
            paragraph.bold = True  # 字体加粗
            file_full_path=save_path+os.sep+word_title+".docx"
            document.save(file_full_path)
        except Exception as e:
            print("Create Word Fail reason:" + str(e))
    def gen_passandtxt(self,file_count,word_title):
        print("Create PassWord and Pass.txt")
        message=SpriderTools.gen_password()
        password = "".join(message)
        content=""
        content = content + "\n分享"+str(file_count)+"个"+word_title+",总有一款适合您\r\n"
        content = content + "\n\r"
        content=content+"\n都到这里了您就支持一下呗!谢谢老铁~~"
        content=content+"\n\r"
        content=content+"\n文件我就不一一列举了,送老铁一首打油诗"
        content=content+"\n学习知识费力气,"
        content=content+"\n收集整理更不易。"
        content=content+"\n知识付费甚欢喜,"
        content=content+"\n为咱码农谋福利。"
        content=content+"\n\r"
        content=content+"\n\r"
        content=content+"\n感谢您的支持"
        content=content+"\n\r"
        content=content+"\n-------------------------------------------华丽分割线-------------------------------------------------------"
        content=content+"\n友情提醒解压密码:"+password+""
        full_path=self.save_path+os.sep+""+str(file_count)+"sell_pass.txt"
        with open(full_path, 'a', encoding='utf-8') as f:
            f.write(content)
    def copy_file(self,target_path):
        print("copy files")
        import os
        import shutil
        # src_apk_file_path="薅羊毛专业版.apk"
        # dst_apk_file_path=target_path+os.sep+"薅羊毛专业版.apk"
        # shutil.copyfile(src_apk_file_path, dst_apk_file_path)  # 移动文件
        #
        # src_pdf_file_path = "薅羊毛专业版.pdf"
        # dst_pdf_file_path = target_path + os.sep + "薅羊毛专业版.pdf"
        # shutil.copyfile(src_pdf_file_path, dst_pdf_file_path)  # 移动文件
        src_doc_file_path = "readme.docx"
        dst_doc_file_path = target_path + os.sep + "readme.docx"
        shutil.copyfile(src_doc_file_path, dst_doc_file_path)  # 移动文件
        pass
if __name__ == "__main__":
    ChinaZCode().sprider("PHP")  # daimaku


目录
相关文章
|
1月前
|
PHP
PHP全自动采集在线高清壁纸网站源码
PHP全自动采集在线高清壁纸网站源码,PHP全自动采集在线高清壁纸网站源码,一款开源壁纸源码,无需安装。集合360壁纸,百度壁纸,必应壁纸,简单方便。每天自动采集,自动更新,非常不错,php源码 网站源码 免费源码 自动采集。
47 3
|
1月前
|
PHP 数据库
2024表白墙PHP网站源码
2024表白墙PHP网站源码
31 1
|
2月前
|
安全 BI PHP
php前后端分离,仓储模式r的医院不良事件上报系统源码
此医院安全不良事件管理系统采用前后端分离架构(PHP+Laravel8+Vue2+Element),实现事件上报至解决的全流程管理。系统支持结构化上报、数据自动引用、智能流程及预警,配备质控分析工具生成各类报表。通过PDCA闭环管理,确保事件得到有效处置并预防再发,同时提供便捷上报通道,优化上报效率。
php前后端分离,仓储模式r的医院不良事件上报系统源码
|
2月前
|
前端开发 关系型数据库 MySQL
最新黑名单查询录入系统PHP网站源码
最新黑名单查询录入系统PHP网站源码 前端html 后端layui 操作部分都采用API接口的方式实线 集结了layui表格的多数据操作,添加,批量删除,分页,单项删除 后台数据修改采用绑定参数的形式来进行修改可以很好的预防数据库注入,当然如果你想要测试这个防注入的你也可以尝试一下 PHP版本70+ 数据库Mysql 5.6 上传程序访问 http://你的域名/install 安装
60 0
|
3月前
|
数据库
基于PHP+MYSQL开发制作的趣味测试网站源码
基于PHP+MYSQL开发制作的趣味测试网站源码。可在后台提前设置好缘分, 自己手动在数据库里修改数据,数据库里有就会优先查询数据库的信息, 没设置的话第一次查询缘分都是非常好的 95-99,第二次查就比较差 , 所以如果要你女朋友查询你的名字觉得很好 那就得是她第一反应是查和你的缘分, 如果查的是别人,那不好意思,第二个可能是你。
53 3
|
3月前
|
小程序 PHP
全新UI自助图文打印系统小程序源码 PHP后端 附教程
全新UI自助图文打印系统小程序源码 PHP后端 附教程
231 2
|
3月前
|
移动开发 前端开发 应用服务中间件
挂售转卖竞拍商城系统源码/竞拍系统/转拍闪拍系统/后端PHP+前端UNiapp源码
挂售转卖竞拍商城系统源码/竞拍系统/转拍闪拍系统/后端PHP+前端UNiapp源码 亲测可用
87 1
|
4月前
|
PHP
PHP微信公众号投票活动系统源码
PHP微信公众号投票活动系统源码
155 11
|
4月前
|
存储 Linux PHP
PHP云盘网盘系统源码+快速对接多家云存储+全新一键安装版
快速对接多家云存储,支持七牛、又拍云、阿里云OSS、AWS S3、Onedrive、自建远程服务器,当然,还有本地存储。 自定义主题配色。 图片、音频、视频、文本、Markdown、Ofiice文档 在线预览。 移动端全站响应式布局。 文件、目录分享系统,可创建私有分享或公开分享链接。 用户个人主页,可查看用户所有分享。 多用户系统、用户组支持。 初步完善的后台,方便管理。 拖拽上传、分片上传、断点续传、下载限速(*实验性功能)。 多上传策略,可为不同用户组分配不同策略。 用户组基础权限设置、二步验证。 WebDAV协议支持。
106 2
|
3月前
|
前端开发 PHP 区块链
博客屋网址导航自适应主题php源码
自适应各终端博客屋网址导航源码是一个以PHP+MySQL进行开发的个人博客网站导航源码
53 0