Mongodb在使用过程中有什么问题
Posted pythonlyz
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Mongodb在使用过程中有什么问题相关的知识,希望对你有一定的参考价值。
mongodb在使用过程中有什么问题
关于连接方面 1. mongodb目标计算机积极拒绝无法连接 此问题很多情况下是出现在window安装 Mongo时,出现的主要原因是配置没配好: 1. 要把Mongo.exe添加系统环境中 2. 在Mongo.exe的目录创建data/db目录来存放mongo的数据 3. 在Mongo.exe的目录创建log文件来存放mongo的日志。 这三个缺一不可,一定要注意路径!!
2. 出现mongo.js的错误,如下:
解决方法: 删除datadb文件下面的mongo.lock文件 重启服务 OK
使用方面 1. bson size不能超过16MB的限制。单个文档的BSON size不能超过16MB。find查询有时会遇到16MB的限制,譬如使用$in 查询的时候,in中的数组元素不能太多 2. Mongo对于时间的存储使用的MongoDate时间是UTC的,要使用日期格式来存储。
3. 使用count()统计数量错误。 需要使用aggregate pipeline来得到正确统计结果
4. 从shell中更新/写入到文档的数字,会变为float类型
5. DB中的namespace数量太多导致无法创建新的collection, 错误提示:error: hashtable namespace index max chain reached:1335,如何解决呢? 修改nssize参数并重启Mongodb,这新nssize只会对新加入的DB生效,对以前已经存在的DB不生效,如果你想对已经存在的DB采用新的nssize,必须在加大nssize重启之后新建DB,然后把旧DB的collection 复制到新DB中。
6. moveChunk因旧数据未删除而失败. 错误日志:”moveChunk failed to engage TO-shard in the data transfer: can‘t accept new chunks because there are still 1 deletes from previous migration“。 意思是说,当前正要去接受新chunk 的shard正在删除上一次数据迁移出的数据,不能接受新Chunk,于是本次迁移失败。这种log里显示的是warning,但有时候会发现shard的删除持续了十几天都没完成,查看日志,可以发现同一个chunk的删除在不断重复执行,重启所有无法接受新chunk的shard可以解决这个问题 解决办法: 重启Mongodb
7. mongo对数据分页慢。 这是因为Mongo是吧分页的数据加载到内存中,由于内存限制,会越来越慢,如何解决? 分页时不要使用SKIP来实现。应该使用查询条件+排序+限制返回记录的方法,即边查询,边排序,排序之后,抽取上一页中的最后一条记录,作为当前分页的查询条件,从而避免了skip效率低下的问题。
|
以上是关于Mongodb在使用过程中有什么问题的主要内容,如果未能解决你的问题,请参考以下文章