基于ray 多进程调度管理能力优化networks节点最短路径的并行计算

简介: 原生的networkx实现的只能在节点介数度量性任务上达到单核心100的cpu利用率。通过对源码的几行改造我们可以实现多核心的100的利用率。接下来要我们来一起看看是如何实现的多核心100的利用率。

本教程设计到多进程框架ray与networkx的图计算框架。

原生的networkx实现的只能在节点介数度量性任务上达到单核心100的cpu利用率。通过对源码的几行改造我们可以实现多核心的100的利用率。接下来要我们来一起看看是如何实现的多核心100的利用率。

deff_one():
degree_centrality_result=betweenness_centrality(G)
out= []
fori, jindegree_centrality_result.items():
out.append({"user_id": i, "weight": j})
pd.DataFrame(out).to_csv("betweenness_centrality_result.csv")
# 读取2020年企业年报因果关系数据集。bracket_name=json.load(open("2020_extract_result_center.json", "r"))
graph= {}
foriintqdm(list(bracket_name)):
if (i[0], i[4]) notingraph:
graph[(i[0], i[4])] =1else:
graph[(i[0], i[4])] +=1print(len(graph))
graph_relation= []
forgraph_id, graph_countingraph.items():
ifgraph_count>1:
graph_relation.append(graph_id)
print(len(graph_relation))
graph_relation=graph_relation[:10000]
G=nx.Graph()
G.add_edges_from(graph_relation)  # 添加多条边ray_G=ray.put(G)
f_one()

心细的小伙伴可能已经发现了,我们在代码中有一个ray.put的操作,对G这个无向图图谱数据集进行了多进程的准备。那么接下来,我们需要解释一下什么叫做介数中心性。在一张无向图图谱中存在着海量的节点。每一个节点到非相邻的节点都存在着一条最短路径。在介数中心性这个算法中,当前节点出现在无向图图谱所有的最短路径中出现的次数越多意味着节点的重要性越高。通过百度搜索我们可以知道,介数中心性指标在航海、飞行航路场景中有着重要的应用。在百度开源的hugegraph图数据库白皮书中介绍到介数重要性可以作为反洗钱的重要算法、社区发现可以进行团伙反欺诈。

那么源码如何实现的介数中心性这个指标的呢。我们慢慢往下看。

defbetweenness_centrality(
G, k=None, normalized=True, weight=None, endpoints=False, seed=None):
betweenness=dict.fromkeys(G, 0.0)  # b[v]=0 for v in GifkisNone:
nodes=Gelse:
nodes=seed.sample(list(G.nodes()), k)
ray_betweenness= [shortest_path_basic.remote(s, ray_betweenness) forsinnodes]
betweenness=ray.get(ray_betweenness)
betweenness_compute= {}
forbetweenness_oneinbetweenness:
fori,jinbetweenness_one.items():
ifiinbetweenness_compute:
betweenness_compute[i]+=jelse:
betweenness_compute[i]=jbetweenness=_rescale(
betweenness_compute,
len(G),
normalized=normalized,
directed=G.is_directed(),
k=k,
endpoints=endpoints,
    )
returnbetweenness

其中k代表着节点取样数,节点取样数量越少计算速度越快。(因为通过节点进行最短路径的遍历过程最少。)

首先我们需要定义一个betweeness的字典。用以储存每一个节点在其所经过的最短路径中的次数。

第二我们需要遍历所有的节点,用以在计算最短路径这个事情上获取到每一个节点所在的最短路径。

第三我们将每一个节点造成的最短路径的结果给重新合并到一个字典上。

第四,通过rescale重新对我们的所有节点结果进行汇总计算。

那么接下来让我们看看重头戏寻找当前节点的最短路径的代码我们是怎么进行修改的。

@ray.remotedefshortest_path_basic(s, ray_betweenness=None):
G=ray.get(ray_G)
betweenness=dict.fromkeys(G, 0.0)  # b[v]=0 for v in G# single source shortest pathsS, P, sigma, _=_single_source_shortest_path_basic(G, s)
# accumulationbetweenness, delta=_accumulate_basic(betweenness, S, P, sigma, s)
#     ray_betweenness = ray.put(betweenness)delGreturnbetweenness

首先我们从ray的大对象共享代理池中把我们的图拉出来。

第二我们构建一个包含所有节点为key的字典。

第三输入图谱数据G和节点s。通过s来计算所覆盖到的最短路径。

第四我们对所产生的betweenness字典对象进行积累。

第五,我们为了节约内存,所以删掉了特别占用内存的图谱数据G。

第六,我们将累计好的结果返回。

接下来我们就可以通过对基于节点的最短路径查找出来的节点权重进行权重的计算了。

整体代码如下,感兴趣的小伙伴们快来试一试这样实现的单机多进程betweenness节点介数中心性的效果吧。

importjsonimportnetworkxasnximportpandasaspdfromcollectionsimportdequefromnetworkx.algorithms.shortest_paths.weightedimport_weight_functionfromtqdmimporttqdm# helpers for betweenness centralitydef_single_source_shortest_path_basic(G, s):
S= []
P= {}
forvinG:
P[v] = []
sigma=dict.fromkeys(G, 0.0)  # sigma[v]=0 for v in GD= {}
sigma[s] =1.0D[s] =0Q=deque([s])
whileQ:  # use BFS to find shortest pathsv=Q.popleft()
S.append(v)
Dv=D[v]
sigmav=sigma[v]
forwinG[v]:
ifwnotinD:
Q.append(w)
D[w] =Dv+1ifD[w] ==Dv+1:  # this is a shortest path, count pathssigma[w] +=sigmavP[w].append(v)  # predecessorsreturnS, P, sigma, Ddef_accumulate_basic(betweenness, S, P, sigma, s):
delta=dict.fromkeys(S, 0)
whileS:
w=S.pop()
coeff= (1+delta[w]) /sigma[w]
forvinP[w]:
delta[v] +=sigma[v] *coeffifw!=s:
betweenness[w] +=delta[w]
returnbetweenness, deltadef_accumulate_endpoints(betweenness, S, P, sigma, s):
betweenness[s] +=len(S) -1delta=dict.fromkeys(S, 0)
whileS:
w=S.pop()
coeff= (1+delta[w]) /sigma[w]
forvinP[w]:
delta[v] +=sigma[v] *coeffifw!=s:
betweenness[w] +=delta[w] +1returnbetweenness, deltadef_accumulate_edges(betweenness, S, P, sigma, s):
delta=dict.fromkeys(S, 0)
whileS:
w=S.pop()
coeff= (1+delta[w]) /sigma[w]
forvinP[w]:
c=sigma[v] *coeffif (v, w) notinbetweenness:
betweenness[(w, v)] +=celse:
betweenness[(v, w)] +=cdelta[v] +=cifw!=s:
betweenness[w] +=delta[w]
returnbetweennessdef_rescale(betweenness, n, normalized, directed=False, k=None, endpoints=False):
ifnormalized:
ifendpoints:
ifn<2:
scale=None# no normalizationelse:
# Scale factor should include endpoint nodesscale=1/ (n* (n-1))
elifn<=2:
scale=None# no normalization b=0 for all nodeselse:
scale=1/ ((n-1) * (n-2))
else:  # rescale by 2 for undirected graphsifnotdirected:
scale=0.5else:
scale=NoneifscaleisnotNone:
ifkisnotNone:
scale=scale*n/kforvinbetweenness:
betweenness[v] *=scalereturnbetweennessdef_rescale_e(betweenness, n, normalized, directed=False, k=None):
ifnormalized:
ifn<=1:
scale=None# no normalization b=0 for all nodeselse:
scale=1/ (n* (n-1))
else:  # rescale by 2 for undirected graphsifnotdirected:
scale=0.5else:
scale=NoneifscaleisnotNone:
ifkisnotNone:
scale=scale*n/kforvinbetweenness:
betweenness[v] *=scalereturnbetweennessimportrayray.init()
@ray.remotedefshortest_path_basic(s, ray_betweenness=None):
G=ray.get(ray_G)
betweenness=dict.fromkeys(G, 0.0)  # b[v]=0 for v in G# single source shortest pathsS, P, sigma, _=_single_source_shortest_path_basic(G, s)
# accumulationbetweenness, delta=_accumulate_basic(betweenness, S, P, sigma, s)
#     ray_betweenness = ray.put(betweenness)delGreturnbetweennessdefbetweenness_centrality(
G, k=None, normalized=True, weight=None, endpoints=False, seed=None):
betweenness=dict.fromkeys(G, 0.0)  # b[v]=0 for v in GifkisNone:
nodes=Gelse:
nodes=seed.sample(list(G.nodes()), k)
ray_betweenness=ray.put(betweenness)
ray_betweenness= [shortest_path_basic.remote(s, ray_betweenness) forsinnodes]
betweenness=ray.get(ray_betweenness)
#     print(betweenness[:3])# rescaling#     json.dump(betweenness, open("betweenness.json", "w", encoding="utf-8"), ensure_ascii=False)betweenness_compute= {}
forbetweenness_oneinbetweenness:
fori,jinbetweenness_one.items():
ifiinbetweenness_compute:
betweenness_compute[i]+=jelse:
betweenness_compute[i]=jbetweenness=_rescale(
betweenness_compute,
len(G),
normalized=normalized,
directed=G.is_directed(),
k=k,
endpoints=endpoints,
    )
returnbetweenness@ray.remotedeff(index):
bracket_name=ray.get(bracket_name_ray)
graph= {}
print(index)
foriintqdm(list(bracket_name)):
if (i[0], i[2]) notingraph:
graph[(i[0], i[2])] =1else:
graph[(i[0], i[2])] +=1print(len(graph))
graph_relation= []
forgraph_id, graph_countingraph.items():
ifgraph_count>1:
graph_relation.append(graph_id)
G=nx.Graph()
G.add_edges_from(graph_relation)  # 添加多条边degree_centrality_result=betweenness_centrality(G)
out= []
fori, jindegree_centrality_result.items():
out.append({"user_id": i, "weight": j})
pd.DataFrame(out).to_csv("betweenness_centrality_result"+str(index) +".csv")
deff_one():
degree_centrality_result=betweenness_centrality(G)
out= []
fori, jindegree_centrality_result.items():
out.append({"user_id": i, "weight": j})
pd.DataFrame(out).to_csv("betweenness_centrality_result.csv")
bracket_name=json.load(open("2020_extract_result_center.json", "r"))
bracket_name_ray=ray.put(bracket_name)
# futures = [f.remote(i) for i in range(len(bracket_name) // 3000)]# print(ray.get(futures))  # [0, 1, 4, 9]bracket_name=ray.get(bracket_name_ray)
graph= {}
foriintqdm(list(bracket_name)):
if (i[0], i[4]) notingraph:
graph[(i[0], i[4])] =1else:
graph[(i[0], i[4])] +=1print(len(graph))
graph_relation= []
forgraph_id, graph_countingraph.items():
ifgraph_count>1:
graph_relation.append(graph_id)
print(len(graph_relation))
graph_relation=graph_relation[:10000]
G=nx.Graph()
G.add_edges_from(graph_relation)  # 添加多条边ray_G=ray.put(G)
f_one()
相关文章
|
2天前
|
存储 负载均衡 算法
深入理解操作系统的进程调度
【6月更文挑战第20天】本文将探讨操作系统中的进程调度,包括其定义、重要性以及常见的调度算法。我们将通过具体的例子和代码片段来深入理解进程调度的工作原理和实现方式。最后,我们将讨论进程调度在现代操作系统中的应用和挑战。
|
3天前
|
安全 Java Python
GIL是Python解释器的锁,确保单个进程中字节码执行的串行化,以保护内存管理,但限制了多线程并行性。
【6月更文挑战第20天】GIL是Python解释器的锁,确保单个进程中字节码执行的串行化,以保护内存管理,但限制了多线程并行性。线程池通过预创建线程池来管理资源,减少线程创建销毁开销,提高效率。示例展示了如何使用Python实现一个简单的线程池,用于执行多个耗时任务。
15 6
|
4天前
|
调度
操作系统之进程调度机制
操作系统之进程调度机制
9 1
|
5天前
|
Java 程序员
Java多线程编程是指在一个进程中创建并运行多个线程,每个线程执行不同的任务,并行地工作,以达到提高效率的目的
【6月更文挑战第18天】Java多线程提升效率,通过synchronized关键字、Lock接口和原子变量实现同步互斥。synchronized控制共享资源访问,基于对象内置锁。Lock接口提供更灵活的锁管理,需手动解锁。原子变量类(如AtomicInteger)支持无锁的原子操作,减少性能影响。
18 3
|
5天前
|
负载均衡 算法 调度
深入理解操作系统之进程调度
本文旨在探究操作系统核心机制之一——进程调度。文章首先概述进程与线程的基本概念,随后详细解析进程调度的目标、常见算法及其优缺点,并探讨现代操作系统中进程调度的高级话题,如多核调度和实时系统的调度策略。通过实例分析,本篇文章将帮助读者深化对进程调度复杂性的理解,并指出未来可能的发展方向。
|
24天前
|
算法 调度 UED
深入理解操作系统之进程调度策略
【5月更文挑战第30天】 在操作系统的核心功能中,进程调度策略扮演着至关重要的角色。它决定了处理器资源如何高效合理地分配给众多竞争的进程。本文将深入探讨几种常见的进程调度算法,包括先来先服务(FCFS)、短作业优先(SJF)以及多级反馈队列(MLQN),并分析它们在不同场景下的性能表现和适用性。通过模拟实验数据和性能对比,我们将揭示各调度策略的优势与局限,为系统设计者提供选择指南。
|
24天前
|
监控 算法 调度
深入理解操作系统的进程调度策略
【5月更文挑战第30天】 在现代操作系统中,进程调度策略是其核心功能之一,它直接关系到系统资源的利用效率和用户体验。本文将详细解析几种常见的进程调度算法——从简单的先来先服务(FCFS)到复杂的多级反馈队列(MLFQ),并探讨各自的优劣及适用场景。通过比较它们在不同工作负载下的表现,我们旨在为系统设计者提供选择合适调度策略的参考依据。
|
24天前
|
算法 API 调度
深入理解操作系统:进程调度与性能优化
【5月更文挑战第30天】在多任务操作系统中,进程调度是核心功能之一,它直接影响系统的整体性能和用户体验。本文深入探讨了操作系统中的进程调度机制,包括调度策略、调度算法以及它们对系统性能的影响。同时,提出了几种性能优化技术,旨在提高系统的响应速度和资源利用率。通过分析不同场景下的调度需求,本文还讨论了如何根据具体应用定制进程调度策略,以达到最优的系统表现。
|
24天前
|
算法 Linux 调度
深入理解操作系统:进程管理与调度策略
【5月更文挑战第30天】 在现代计算环境中,操作系统的进程管理是确保多任务高效运行的关键。本文将详细探讨操作系统中进程的概念、进程状态转换以及进程调度策略。通过对这些概念的分析,我们能够更好地理解操作系统如何协调和管理多个进程,以实现资源的有效利用和系统的稳定运行。
|
25天前
|
负载均衡 算法 Linux
深入理解操作系统:进程调度的策略与实现
【5月更文挑战第29天】在多任务操作系统中,进程调度是核心功能之一,它决定了哪个进程将获得CPU时间以及何时获得。有效的调度策略能够显著提升系统性能、降低响应时间并增强用户体验。本文将探讨操作系统中常用的几种进程调度算法,包括先来先服务(FCFS)、短作业优先(SJF)、轮转调度(RR)以及多级反馈队列,分析各自的优势和局限性。同时,文章还将讨论如何在现代操作系统如Linux中实现这些调度策略,并通过实际案例展示调度策略对系统行为的影响。

热门文章

最新文章

相关实验场景

更多