Neo4j 如何创建数十亿个节点?

Posted

技术标签:

【中文标题】Neo4j 如何创建数十亿个节点?【英文标题】:How to create billions of nodes in Neo4j? 【发布时间】:2015-03-29 23:36:04 【问题描述】:

我想用大量节点测试 Neo4j 的性能。我正在考虑创建数十亿个节点,然后想看看获取满足某些标准的节点需要多少时间。就像 10 亿个节点标记为具有 SSN 属性的人

match (p:Person) where p.SSN=4255556656425 return p;

但是如何创建10亿个节点,有没有办法生成10亿个节点?

【问题讨论】:

【参考方案1】:

另一个简单的答案是一个很好的答案。如果你想要更多的参与,Michael Hunger posted a good blog entry on this。他推荐了一些基本上非常相似的东西,但是您也可以循环使用一些样本数据,并使用随机数来建立联系。

以下是他如何创建 100,000 个用户和产品并将它们链接起来,根据您的需要进行自定义:

WITH ["Andres","Wes","Rik","Mark","Peter","Kenny","Michael","Stefan","Max","Chris"] AS names
FOREACH (r IN range(0,100000) | CREATE (:User id:r, name:names[r % size(names)]+" "+r));

with ["Mac","iPhone","Das Keyboard","Kymera Wand","HyperJuice Battery",
"Peachy Printer","HexaAirBot",
"AR-Drone","Sonic Screwdriver",
"Zentable","PowerUp"] as names
    foreach (r in range(0,50) | create (:Product id:r, name:names[r % size(names)]+" "+r));

别忘了甜蜜的随机链接:

match (u:User),(p:Product)
where rand() < 0.1
with u,p
limit 50000
merge (u)-[:OWN]->(p);

发疯。

【讨论】:

【参考方案2】:

那时您要测量的是 lucene 索引的性能。 所以不是图形数据库操作。

有多种选择:

neo4j 导入

Neo4j 2.2.0-M03 附带 neo4j-import,这是一个可以快速、可扩展地将 10 亿节点 csv 导入 Neo4j 的工具。

并行批量导入器 API

这在 Neo4j 2.2 中是非常新的

我使用新的 ParallelBatchImporter 在 5 分钟 13 秒 (53G db) 内创建了一个仅包含 1.000.000.000 个节点的节点图。这使得它大约每秒 320 万个节点。

代码在这里:https://gist.github.com/jexp/0ff850ab2ce41c9ca5e6

批量插入器

您可以使用 Neo4j Batch-Inserter-API 创建该数据,而无需先创建 CSV。

在此处查看此示例,您必须采用该示例才能不读取 CSV,而是直接从 for 循环生成数据:http://jexp.de/blog/2014/10/flexible-neo4j-batch-import-with-groovy/

密码

如果您想使用 Cypher,我建议您在 JAVA_OPTS="-Xmx4G -Xms4G" bin/neo4j-shell -path billion.db 中运行类似的内容:

这是我在我的 macbook 上使用的 10M 和 100M 的代码和时间:

创建一个 1M 行的 csv 文件

ruby -e 'File.open("million.csv","w") 
    |f| (1..1000000).each|i| f.write(i.to_s + "\n")   ' 

在 MacBook Pro 上运行的实验 Cypher 执行是单线程的 估计大小 (15+42) 字节 * 节点数

// on my laptop
// 10M nodes, 1 property, 1 label each in 98228 ms (98s) taking 580 MB on disk

using periodic commit 10000
load csv from "file:million.csv" as row
//with row limit 5000
foreach (x in range(0,9) | create (:Person id:toInt(row[0])*10+x));

// on my laptop
// 100M nodes, 1 property, 1 label each in 1684411 ms (28 mins) taking 6 GB on disk

using periodic commit 1000
load csv from "file:million.csv" as row
foreach (x in range(0,99) | create (:Person id:toInt(row[0])*100+x));

// on my linux server
// 1B nodes, 1 property, 1 label each in 10588883 ms (176 min) taking 63 GB on disk

using periodic commit 1000
load csv from "file:million.csv" as row
foreach (x in range(0,999) | create (:Person id:toInt(row[0])*100+x));

创建索引

create index on :Person(id);
schema await

// took about 40 mins and increased the database size to 85 GB

那我可以跑了

match (:Person id:8005300) return count(*);
+----------+
| count(*) |
+----------+
| 1        |
+----------+
1 row
2 ms

【讨论】:

当您的节点之间有许多关系时,CSV 导入会变得非常复杂。根据我的经验,批处理插入器是最糟糕的,因为它不支持线程(在我看来这违背了目的)。此外,当每个节点的内容约为 1kb 而不是单个数字时,性能也会变得更差。我从未使用过 parallel-batch-importer,但看起来很有希望。 是的,并行批处理插入器使用所有可用的 cpu 和磁盘 io。

以上是关于Neo4j 如何创建数十亿个节点?的主要内容,如果未能解决你的问题,请参考以下文章

如何存储数十亿 JSON 文件并进行查询

为数十亿个不同的键优化分区

Firebase javascript安全? [复制]

如何在Neo4j中创建节点时跳过重复节点

neo4j是啥?怎么配置?能单独使用吗?

我如何基于Neo4j中的子节点链接创建节点之间的链接