网络子系统66_策略路由初始化

简介:
//	策略路由链表
//		系统中所有策略路由通过fib_rules链接在一起

static struct fib_rule default_rule = {
	.r_clntref =	ATOMIC_INIT(2),//引用计数
	.r_preference =	0x7FFF,//路由规则优先级
	.r_table =	RT_TABLE_DEFAULT,//路由表标示符
	.r_action =	RTN_UNICAST,//路由类型,间接定义了当路由查找匹配时应采取的动作
};

static struct fib_rule main_rule = {
	.r_next =	&default_rule,
	.r_clntref =	ATOMIC_INIT(2),
	.r_preference =	0x7FFE,
	.r_table =	RT_TABLE_MAIN,
	.r_action =	RTN_UNICAST,
};

static struct fib_rule local_rule = {
	.r_next =	&main_rule,
	.r_clntref =	ATOMIC_INIT(2),
	.r_table =	RT_TABLE_LOCAL,
	.r_action =	RTN_UNICAST,
};

static struct fib_rule *fib_rules = &local_rule;

//	策略路由初始化
//		向netdev_chain注册监听块
//	调用路径:ip_rt_init->ip_fib_init->fib_rules_init
2.1 void __init fib_rules_init(void)
{
	register_netdevice_notifier(&fib_rules_notifier);
}

2.1 static struct notifier_block fib_rules_notifier = {
	.notifier_call =fib_rules_event,
};

//	策略路由对设备事件的处理
//		只处理设备注册,注销事件
static int fib_rules_event(struct notifier_block *this, unsigned long event, void *ptr)
{
	struct net_device *dev = ptr;
	//设备注销,删除与设备相关的策略路由
	if (event == NETDEV_UNREGISTER)
		fib_rules_detach(dev);
	else if (event == NETDEV_REGISTER)
		fib_rules_attach(dev);//添加与设备相关的策略
	return NOTIFY_DONE;
}

//	禁止与设备相关的策略路由
//		将策略路由r_ifindex=-1,禁止策略路由
2.2 static void fib_rules_detach(struct net_device *dev)
{
	struct fib_rule *r;
	//遍历系统中所有的策略路由
	for (r=fib_rules; r; r=r->r_next) {
		if (r->r_ifindex == dev->ifindex) {//策略路由使用的设备index
			write_lock_bh(&fib_rules_lock);
			r->r_ifindex = -1;//禁止该策略路由
			write_unlock_bh(&fib_rules_lock);
		}
	}
}

//	激活设备的策略路由
//		fib_rule->r_ifname表示策略应用的设备
2.3 static void fib_rules_attach(struct net_device *dev)
{
	struct fib_rule *r;

	for (r=fib_rules; r; r=r->r_next) {
		if (r->r_ifindex == -1 && strcmp(dev->name, r->r_ifname) == 0) {
			write_lock_bh(&fib_rules_lock);
			r->r_ifindex = dev->ifindex;
			write_unlock_bh(&fib_rules_lock);
		}
	}
}

目录
相关文章
|
3月前
|
机器学习/深度学习
神经网络中权重初始化的重要性
【8月更文挑战第23天】
98 0
|
3月前
网络工程师如何用策略路由解决双出口问题?
网络工程师如何用策略路由解决双出口问题?
|
4月前
|
机器学习/深度学习 数据采集 监控
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient
**神经网络与AI学习概览** - 探讨神经网络设计,包括MLP、RNN、CNN,激活函数如ReLU,以及隐藏层设计,强调网络结构与任务匹配。 - 参数初始化与优化涉及Xavier/He初始化,权重和偏置初始化,优化算法如SGD、Adam,针对不同场景选择。 - 学习率调整与正则化,如动态学习率、L1/L2正则化、早停法和Dropout,以改善训练和泛化。
44 0
算法金 | DL 骚操作扫盲,神经网络设计与选择、参数初始化与优化、学习率调整与正则化、Loss Function、Bad Gradient
|
5月前
|
机器学习/深度学习 PyTorch 算法框架/工具
神经网络参数初始化
**神经网络参数初始化**是深度学习的关键步骤。权重常通过**Xavier**或**He**初始化来打破对称性,适用于ReLU激活;而偏置通常初始化为0。初始化方法还包括**均匀分布**、**正态分布**、**全零**、**全一**和**固定值**。在PyTorch中,`torch.nn.init`模块提供了如`xavier_uniform_`和`kaiming_normal_`等初始化函数。预训练模型也可用于初始化,通过微调提升性能。
|
PyTorch 算法框架/工具
【PyTorch】初始化网络各层权重
【PyTorch】初始化网络各层权重
63 0
|
算法 Cloud Native Linux
《云原生网络数据面可观测性最佳实践》—— 一、容器网络内核原理——3.tc子系统(上)
《云原生网络数据面可观测性最佳实践》—— 一、容器网络内核原理——3.tc子系统(上)
|
Cloud Native Linux 网络性能优化
《云原生网络数据面可观测性最佳实践》—— 一、容器网络内核原理——3.tc子系统(下)
《云原生网络数据面可观测性最佳实践》—— 一、容器网络内核原理——3.tc子系统(下)
|
负载均衡 网络安全 网络架构
网络工程师经常搞混的路由策略和策略路由,两者到底有啥区别?
网络工程师经常搞混的路由策略和策略路由,两者到底有啥区别?
224 0
|
PyTorch 算法框架/工具
A网络的embedding层的权重参数已经初始化为F了,copy.deepcopy(A)的结果网络也跟着初始化为F了嘛?
A网络的embedding层的权重参数已经通过 self.embedding.weight.data.copy_(pretrained_embeddings)初始化为F,那么 copy.deepcopy(A)的结果网络也跟着初始化为F了嘛?
202 0
|
PyTorch 算法框架/工具
如何将网络参数初始化,或者如何将网络参数还原成原始参数状态
在以上代码中,_initialize_weights()方法用于对网络参数进行初始化。其中,init.ones_表示将权重初始化为1,init.zeros_表示将偏置初始化为0。 3. 如果想将网络参数恢复到初始状态,则可以重新调用_initialize_weights()方法
308 0