NEO4J的入门和一些简单的操作

简介: > 持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第29天,[点击查看活动详情](https://juejin.cn/post/7147654075599978532 "https://juejin.cn/post/7147654075599978532")# 引言今天我们继续学习NEO4J.# 创建创建语句我们一般会使用create指令我们首先在控制台上输入`neo4j.bat console`启动neo4j然后打开你的浏览器,然后在浏览器地址栏中输入`http://localhost:7687 - Neo4j Browser](http:
持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第29天, 点击查看活动详情

引言

今天我们继续学习NEO4J.

创建

创建语句我们一般会使用create指令

我们首先在控制台上输入neo4j.bat console启动neo4j

然后打开你的浏览器,然后在浏览器地址栏中输入

http://localhost:7687 - Neo4j Browser](http://localhost:7474/browser/)

image.png

上方带$的输入框输入CQL代码(是CQL,没打错,不是SQL)

以创建为例

create (要创建的节点名称,节点标签)

执行上述语句如 create (n:N)

会创建一个空的节点

image.png

成功提示如上

我们可以通过GUI的风格来查看

image.png

点击一下左边第一个长很想数据库的东西

image.png

然后我们可以查看相关节点的信息及关系等等

image.png

比如上面这种,也可以从相关的table等信息进行查看。

去带一些数据的create

我们在创建节点的时候可以去为其去添加一些属性和值(键值对)

比如这样

create (cs:CS{id:"001",name:"zhangsan",ord:99})

即可在创建的时候带一些数据

查询

这里我们引入两个关键字matchreturn

比如我们在$输入框中输入match (cs:CS)

即可匹配CS标签下的节点

但是我们输入后发现

报错了

这是为什么呢?

原来,match关键词不能单独使用,必须要和其他一些关键词组合来使用。

这里我们先引入其中的一种return

即:返回

小demo:match (cs:CS) return cs

执行

我们已经查询到了cs节点的信息

删除

我们可以通过对matchdelete的使用来完成删除

比如这样:

    match (cs:CS) delete cs

完成对其永久性的删除。

相关文章
|
存储 机器学习/深度学习 人工智能
知识图谱入门一:知识图谱介绍,Neo4j下载、安装基本使用
知识图谱入门一:知识图谱介绍,Neo4j下载、安装基本使用
1375 1
知识图谱入门一:知识图谱介绍,Neo4j下载、安装基本使用
com.github.pagehelper.PageInfo分页插件的12种用法
com.github.pagehelper.PageInfo分页插件的12种用法
792 0
|
10月前
|
人工智能 自然语言处理 Java
对话即服务:Spring Boot整合MCP让你的CRUD系统秒变AI助手
本文介绍了如何通过Model Context Protocol (MCP) 协议将传统Spring Boot服务改造为支持AI交互的智能系统。MCP作为“万能适配器”,让AI以统一方式与多种服务和数据源交互,降低开发复杂度。文章以图书管理服务为例,详细说明了引入依赖、配置MCP服务器、改造服务方法(注解方式或函数Bean方式)及接口测试的全流程。最终实现用户通过自然语言查询数据库的功能,展示了MCP在简化AI集成、提升系统易用性方面的价值。未来,“对话即服务”有望成为主流开发范式。
7322 7
|
Java 数据库连接 mybatis
解决Error querying database. Cause: org.apache.ibatis.executor.ExecutorException: No constructor found
解决Error querying database. Cause: org.apache.ibatis.executor.ExecutorException: No constructor found
743 1
|
异构计算 索引
单卡A100实现百万token推理,速度快10倍,这是微软官方的大模型推理加速
【7月更文挑战第24天】针对大语言模型(LLM)处理长上下文时的计算瓶颈,微软推出MInference,基于动态稀疏注意力加速预填充,使8B参数模型处理1M token从30分钟降至3分钟,推理延迟降低10倍。通过识别注意力矩阵模式(A形、斜线、块稀疏),仅计算关键权重,无需修改预训练或微调。实验证明,MInference在多个任务和模型上保持准确度,但可能不适用所有LLM类型,存在轻微性能损失风险。
780 17
|
Linux Docker 容器
linux 通过docker安装 elasticsearch-head
linux 通过docker安装 elasticsearch-head
499 0
|
Linux
CentOS 7 配置yum阿里源 (三步即可)
CentOS 7 配置yum阿里源 (三步即可)
32754 1
|
人工智能 自然语言处理 程序员
解密:Prompt、Token、和completions是什么?
解密:Prompt、Token、和completions是什么?
888 0
|
机器学习/深度学习 Linux API
【超简单】之基于PaddleSpeech搭建个人语音听写服务
【超简单】之基于PaddleSpeech搭建个人语音听写服务
1285 0
【超简单】之基于PaddleSpeech搭建个人语音听写服务