Neo4j导入数据的几种方法

简介: create语句 CREATE (a:Person {name: '张三', sex: '男'}) 如利用create批量写入,这里我使用的是scala+spark,代码如下: object Neo4jConnect { def main(args: Array[String]).

20190114152114385

  1. create语句
CREATE (a:Person {name: '张三', sex: '男'})

如利用create批量写入,这里我使用的是scala+spark,代码如下:

object Neo4jConnect {
  def main(args: Array[String]):Unit = {
    //数据库连接
    val spark=SparkSession.builder().appName("play")
      .master("local[*]")
      .config("spark.neo4j.bolt.url", "bolt://localhost:7687")
      .config("spark.neo4j.bolt.user", "neo4j")
      .config("spark.neo4j.bolt.password", "neo4j")
      .getOrCreate()
    val neo=Neo4j(spark.sparkContext)
    val sql="CREATE (a:Person {name: '张三', sex: '男'}) RETURN a"
    //测试语句
    val rawGraphnode=neo.cypher(sql).loadRowRdd
    rawGraphnode.take(10).foreach(println(_))
    }
  }
}

java也测试过,速度很慢

public class createConn {
       /**
     * 创建节点并增加属性
     */
    public static void createNode(){
        Session session = driver.session();
        session.run( "CREATE (a:Person {name: {name}, title: {title}})",
                parameters( "name", "Arthur001", "title", "King001" ) );

        StatementResult result = session.run( "MATCH (a:Person) WHERE a.name = {name} " +
                        "RETURN a.name AS name, a.title AS title",
                parameters( "name", "Arthur001" ) );
        while ( result.hasNext())
        {
            Record record = result.next();
            System.out.println( record.get( "title" ).asString() + " " + record.get( "name" ).asString() );
        }
        session.close();
        driver.close();
    }
}
  1. load csv 命令导入
USING PERIODIC COMMIT 300 LOAD CSV WITH HEADERS FROM “file:///test.csv” AS line
MERGE (a:actors{name:line.name,type:line.type,id:line.id})

可变参数解释:

1、USING PERIODIC COMMIT 300
使用自动提交,每满300条提交一次,防止内存溢出

2、WITH HEADERS
从文件中读取第一行作为参数名,只有在使用了该参数后,才可以使用line.name这样的表示方式,否则需使用line[0]的表示方式

3、AS line
为每行数据重命名

4、MERGE
用merge比用create好一点,可以防止数据重复

另一种写法

USING PERIODIC COMMIT 10
LOAD CSV FROM "file:///世界.csv" AS line
create (a:世界{personId:line[0],name:line[1],type:line[2]})

actors.csv放入neo4j安装目录下的import文件夹

  1. 建立关系
//现有节点创建关系
MATCH (e:person),(cc:class) WHERE cc.id= e.id CREATE (e)-[r:属于]->(cc)

因为从关系型数据库导入的,这里我通过现有的关联id进行建立关系。

其他几种暂时没有用过,因为现阶段需要实时插入。
持续更新。。。

相关文章
|
Java 安全
一文读懂Java泛型中的通配符 ?
之前不太明白泛型中通配符"?"的含义,直到我在网上发现了Jakob Jenkov的一篇文章,觉得很不错,所以翻译过来,大家也可以点击文末左下角的阅读原文看英文版的原文。 下面是我的译文: Java泛型中的通配符机制的目的是:让一个持有特定类型(比如A类型)的集合能够强制转换为持有A的子类或父类型的集合,这篇文章将解释这个是如何做的。
14436 2
|
7月前
|
人工智能 自然语言处理 开发者
魔搭社区模型速递(2.16-3.1)
🙋魔搭ModelScope本期社区进展:📟2621个模型,Ovis2系列模型等,📁276个数据集,🎨203个创新应用,📄 12篇技术内容
497 2
|
11月前
|
数据采集 人工智能
Dify 工作流分享-小红书文案生成器
本文介绍了生成小红书文案的具体流程和节点设置,包括输入主题、风格、字数,以及处理URL链接和直接主题的两种方式。最后,三金分享了实际测试效果和相关资源。
1976 1
Dify 工作流分享-小红书文案生成器
|
11月前
|
存储 负载均衡 Kubernetes
混合云和多云策略:混合云架构设计详解
混合云和多云策略:混合云架构设计详解
719 1
|
11月前
|
存储 Java API
Java实现导出多个excel表打包到zip文件中,供客户端另存为窗口下载
Java实现导出多个excel表打包到zip文件中,供客户端另存为窗口下载
788 4
|
12月前
|
JavaScript 前端开发 数据处理
Vue导出el-table表格为Excel文件的两种方式
Vue导出el-table表格为Excel文件的两种方式
740 6
|
存储 JavaScript 前端开发
深入浅出Node.js: 从零到一搭建后端服务
【10月更文挑战第5天】在数字化时代的浪潮中,掌握一门后端技术变得尤为重要。Node.js,作为一种轻量、高效的平台,让JavaScript开发者能够轻松跨越前后端的界限。本文将带领初学者一步步了解Node.js的核心概念,并通过实践指导如何搭建一个简单的后端服务。我们将探索异步编程的魅力,模块化的便利,以及中间件的强大功能。准备好了吗?让我们开始Node.js的奇妙之旅!
|
SQL 分布式计算 JavaScript
使用Hadoop同步Neo4j数据(亿级)
企业和人物节点数据以及关系数据导入实践,使用hive生成csv文件,进行 apoc.load.csv 操作。
使用Hadoop同步Neo4j数据(亿级)
|
关系型数据库 MySQL
MySQL中CASE WHEN用法总结
MySQL中CASE WHEN用法总结
1318 0