35.2. The DOT Language

简介:

35.2.1. dot

35.2.1.1. 布局

-Kv - Set layout engine to 'v' (overrides default based on command name)

主要用于有向图

dot 默认布局方式
neato 基于spring-model(又称force-based)算法   基于斥力+张力的布局
twopi 径向布局
circo 圆环布局
osage
				

无向图布局

fdp 用于无向图
sfdp 用于无向图
				

演示

 
 dot test.gv  -Kdot -Tpng -o test.png
 dot test.gv  -Kcirco -Tpng -o test.png
 dot test.gv  -Kneato -Tpng -o test.png
 dot test.gv  -Ktwopi  -Tpng -o test.png
 dot test.gv  -Ksfdp  -Tpng -o test.png
 dot test.gv  -Kosage  -Tpng -o test.png
				

35.2.2. twopi

35.2.3. gprof





原文出处:Netkiller 系列 手札
本文作者:陈景峯
转载请与作者联系,同时请务必标明文章原始出处和作者信息及本声明。

目录
相关文章
|
7月前
|
人工智能 自然语言处理 PyTorch
CLIP(Contrastive Language-Image Pre-training)
CLIP(Contrastive Language-Image Pre-training)
363 0
|
8月前
|
机器学习/深度学习 数据挖掘 Python
[Bart]论文实现:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation...
[Bart]论文实现:Denoising Sequence-to-Sequence Pre-training for Natural Language Generation...
61 0
|
8月前
|
Python
[UNILM]论文实现:Unified Language Model Pre-training for Natural Language.........
[UNILM]论文实现:Unified Language Model Pre-training for Natural Language.........
49 0
|
8月前
|
自然语言处理 算法 Python
[SentencePiece]论文解读:SentencePiece: A simple and language independent subword tokenizer...
[SentencePiece]论文解读:SentencePiece: A simple and language independent subword tokenizer...
120 0
|
自然语言处理 算法 vr&ar
X-GEAR:Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
我们提出了一项利用多语言预训练生成语言模型进行零样本跨语言事件论元抽取(EAE)的研究。通过将EAE定义为语言生成任务,我们的方法有效地编码事件结构并捕获论元之间的依赖关系。
130 0
|
人工智能 数据可视化 决策智能
【CAMEL】Communicative Agents for “Mind”Exploration of Large Scale Language Model Society
【CAMEL】Communicative Agents for “Mind”Exploration of Large Scale Language Model Society
360 0
|
自然语言处理 数据挖掘 Java
Title2Event: Benchmarking Open Event Extraction with a Large-scale Chinese Title Dataset 论文解读
事件抽取(EE)对于新聚合和事件知识图构建等下游任务至关重要。大多数现有的EE数据集手动定义固定的事件类型,并为每种事件设计特定的模式
167 0
|
机器学习/深度学习 算法 数据挖掘
【多标签文本分类】Large Scale Multi-label Text Classification with Semantic Word Vectors
【多标签文本分类】Large Scale Multi-label Text Classification with Semantic Word Vectors
181 0
【多标签文本分类】Large Scale Multi-label Text Classification with Semantic Word Vectors
|
机器学习/深度学习 自然语言处理 算法
【CS224n】(lecture2~3)Word Vectors, Word Senses, and Neural Classifiers
上次对word2vec开了个头,也说了为了优化训练速度,可以用SGD,即Stochastic gradient descent 随机梯度下降。迭代地在每个滑动窗口为SGD取梯度;由于每个窗口只有 2m+1 个单词,所以该向量会很稀疏:
134 0
【CS224n】(lecture2~3)Word Vectors, Word Senses, and Neural Classifiers
|
机器学习/深度学习 自然语言处理 文字识别
【CS224n】(lecture5)Language Models and RNN
以往的parsing的问题: 稀疏;不完整;计算复杂(超过95%的时间都用于特征计算)
178 0
【CS224n】(lecture5)Language Models and RNN