PHP的命名空间

简介:

PHP的命名空间(namespace)是php5.3之后才有的。这个概念在C#中已经很早就有了,php中的namespace其实和c#的概念是一样的。

为什么php中要使用namespace?
假设如果不使用namespace,那么每个类在一个项目中的名字就必须是固定的。因为php在new的时候不管是调用autoload还是调用已加载过的类,都存在一个类名对应的文件。所以在没有namespace的时候,我们会想各种命名规则来区分不同的类,比如project1_school1_class1_Student或者project2_school_class_Student。

引入namespace之后就可以将这个有效规避了,一个namespace就相当于对应一个文件路径,查找这个类的时候,就会去对应的文件路径查找类定义文件了。

namespace的定义和使用
定义:

1
2
3
<?php

namespace Myproject;
或者

1
2
3
4
5
<?php

namespace Myproject {

}
使用:

1
2
3
<?php

use Myproject/School;

1
2
3
<?php

use Myproject/School as School1; // 别名
命名空间是运行时解析的。use就相当于一种声明,并不解析和加载。比如下面这个例子:

test.php

1
2
3
4
5
<?php
use myname;
require_once("/home/yejianfeng/handcode/test/namespace1.php");
$a = new mynameA();
$a->Print1();
namespace1.php

1
2
3
4
5
6
7
<?php
namespace myname;
class A {

    public function Print1(){
            echo 11;
    }

}
虽然require_once在use下面,也是可以正常运行的,因为程序只有在new mynameA()的时候才去加载命名空间myname

全局类和命名空间类
如果要new一个全局类使用 new A()

如果要new一个命名空间类,使用new mynamespaceA()

命名空间的顺序
自从有了命名空间之后,最容易出错的该是使用类的时候,这个类的寻找路径是什么样的了。

如果能弄清楚manual中的这个例子就能全部弄清楚寻找顺序了。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
<?php
namespace A;
use BD, CE as F;

// 函数调用

foo(); // 首先尝试调用定义在命名空间"A"中的函数foo()

        // 再尝试调用全局函数 "foo"

foo(); // 调用全局空间函数 "foo"

myfoo(); // 调用定义在命名空间"Amy"中函数 "foo"

F(); // 首先尝试调用定义在命名空间"A"中的函数 "F"

        // 再尝试调用全局函数 "F"

// 类引用

new B(); // 创建命名空间 "A" 中定义的类 "B" 的一个对象

        // 如果未找到,则尝试自动装载类 "A\B"

new D(); // 使用导入规则,创建命名空间 "B" 中定义的类 "D" 的一个对象

        // 如果未找到,则尝试自动装载类 "B\D"

new F(); // 使用导入规则,创建命名空间 "C" 中定义的类 "E" 的一个对象

        // 如果未找到,则尝试自动装载类 "C\E"

new B(); // 创建定义在全局空间中的类 "B" 的一个对象

        // 如果未发现,则尝试自动装载类 "B"

new D(); // 创建定义在全局空间中的类 "D" 的一个对象

        // 如果未发现,则尝试自动装载类 "D"

new F(); // 创建定义在全局空间中的类 "F" 的一个对象

        // 如果未发现,则尝试自动装载类 "F"

// 调用另一个命名空间中的静态方法或命名空间函数

Bfoo(); // 调用命名空间 "AB" 中函数 "foo"

B::foo(); // 调用命名空间 "A" 中定义的类 "B" 的 "foo" 方法

        // 如果未找到类 "A\B" ,则尝试自动装载类 "A\B"

D::foo(); // 使用导入规则,调用命名空间 "B" 中定义的类 "D" 的 "foo" 方法

        // 如果类 "B\D" 未找到,则尝试自动装载类 "B\D"

Bfoo(); // 调用命名空间 "B" 中的函数 "foo"

B::foo(); // 调用全局空间中的类 "B" 的 "foo" 方法

        // 如果类 "B" 未找到,则尝试自动装载类 "B"

// 当前命名空间中的静态方法或函数

AB::foo(); // 调用命名空间 "AA" 中定义的类 "B" 的 "foo" 方法

          // 如果类 "A\A\B" 未找到,则尝试自动装载类 "A\A\B"

AB::foo(); // 调用命名空间 "AB" 中定义的类 "B" 的 "foo" 方法

          // 如果类 "A\B" 未找到,则尝试自动装载类 "A\B"

?>

本文转自轩脉刃博客园博客,原文链接:http://www.cnblogs.com/yjf512/archive/2013/05/14/3077285.html
,如需转载请自行联系原作者

相关文章
|
5月前
|
程序员 PHP
深入理解PHP中的命名空间
【7月更文挑战第44天】在PHP中,命名空间是一种用于解决代码中名称冲突的工具。本文将详细解析PHP命名空间的概念、实现和使用方法,帮助读者更好地理解和运用命名空间,提高代码的可读性和可维护性。
|
5月前
|
PHP 开发者
深入理解PHP的命名空间
【7月更文挑战第54天】在现代PHP开发中,命名空间已经变得无处不在。它们解决了代码库膨胀时的名称冲突问题,并允许开发者创建可重用的类库而无需担心名称冲突。本文将探讨PHP命名空间的核心概念、实现方式以及如何有效地利用它们来组织和维护大型PHP应用程序。
|
17天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171341 14
|
20天前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
随着云计算和DevOps的兴起,容器技术和自动化在软件开发中扮演着愈发重要的角色,但也带来了新的安全挑战。阿里云针对这些挑战,组织了一场关于云上安全的深度访谈,邀请了内部专家穆寰、匡大虎和黄竹刚,深入探讨了容器安全与软件供应链安全的关系,分析了当前的安全隐患及应对策略,并介绍了阿里云提供的安全解决方案,包括容器镜像服务ACR、容器服务ACK、网格服务ASM等,旨在帮助企业构建涵盖整个软件开发生命周期的安全防护体系。通过加强基础设施安全性、技术创新以及倡导协同安全理念,阿里云致力于与客户共同建设更加安全可靠的软件供应链环境。
150297 32
|
28天前
|
弹性计算 人工智能 安全
对话 | ECS如何构筑企业上云的第一道安全防线
随着中小企业加速上云,数据泄露、网络攻击等安全威胁日益严重。阿里云推出深度访谈栏目,汇聚产品技术专家,探讨云上安全问题及应对策略。首期节目聚焦ECS安全性,提出三道防线:数据安全、网络安全和身份认证与权限管理,确保用户在云端的数据主权和业务稳定。此外,阿里云还推出了“ECS 99套餐”,以高性价比提供全面的安全保障,帮助中小企业安全上云。
201965 15
对话 | ECS如何构筑企业上云的第一道安全防线
|
5天前
|
机器学习/深度学习 自然语言处理 PyTorch
深入剖析Transformer架构中的多头注意力机制
多头注意力机制(Multi-Head Attention)是Transformer模型中的核心组件,通过并行运行多个独立的注意力机制,捕捉输入序列中不同子空间的语义关联。每个“头”独立处理Query、Key和Value矩阵,经过缩放点积注意力运算后,所有头的输出被拼接并通过线性层融合,最终生成更全面的表示。多头注意力不仅增强了模型对复杂依赖关系的理解,还在自然语言处理任务如机器翻译和阅读理解中表现出色。通过多头自注意力机制,模型在同一序列内部进行多角度的注意力计算,进一步提升了表达能力和泛化性能。
|
10天前
|
存储 人工智能 安全
对话|无影如何助力企业构建办公安全防护体系
阿里云无影助力企业构建办公安全防护体系
1256 11
|
12天前
|
机器学习/深度学习 自然语言处理 搜索推荐
自注意力机制全解析:从原理到计算细节,一文尽览!
自注意力机制(Self-Attention)最早可追溯至20世纪70年代的神经网络研究,但直到2017年Google Brain团队提出Transformer架构后才广泛应用于深度学习。它通过计算序列内部元素间的相关性,捕捉复杂依赖关系,并支持并行化训练,显著提升了处理长文本和序列数据的能力。相比传统的RNN、LSTM和GRU,自注意力机制在自然语言处理(NLP)、计算机视觉、语音识别及推荐系统等领域展现出卓越性能。其核心步骤包括生成查询(Q)、键(K)和值(V)向量,计算缩放点积注意力得分,应用Softmax归一化,以及加权求和生成输出。自注意力机制提高了模型的表达能力,带来了更精准的服务。
|
10天前
|
人工智能 自然语言处理 程序员
通义灵码2.0全新升级,AI程序员全面开放使用
通义灵码2.0来了,成为全球首个同时上线JetBrains和VSCode的AI 程序员产品!立即下载更新最新插件使用。
1410 25