Mongodb使用读写锁来来控制并发操作:
当进行读操作的时候会加读锁,这个时候其他读操作可以也获得读锁。但是不能或者写锁。
当进行写操作的时候会加写锁,这个时候不能进行其他的读操作和写操作。
所以按照这个道理,是不会出现同时修改同一个文档(如执行++操作)导致数据出错的情况。
而且按照这个道理,因为写操作会阻塞读操作,所以是不会出现脏读的。
但是mongodb在分片和复制集的时候会产生脏读,后面在研究。
读写锁的粒度:
在2.2之前的版本,一个mongodb实例一个写锁,多个读锁,在2.2-3.0的版本,一个数据库一个写锁,多个读锁,在3.0之后的版本,WiredTiger提供了文档(不是集合)级别的锁。
findAndModify
findAndModify可以保证修改+返回结果(修改前或者修改后都可以)这两个步骤的原子性。
修改并返回单个文档。 默认情况下,返回的文档不包括对更新所做的修改。
db.collection.findAndModify({
query: <document>,
sort: <document>,
remove: <boolean>,
update: <document>,
new: <boolean>,
fields: <document>,
upsert: <boolean>,
bypassDocumentValidation: <boolean>,
writeConcern: <document>,
collation: <document>
query
:
document
。
可选的。
使用这个查询来定位需要修改的记录。 虽然查询可能匹配多个文档,但findAndModify()只会选择一个要修改的文档。
sort:
document
。
可选的。以此参数指定的排序顺序修改第一个文档。
remove:
boolean
。标识删除操作。update和remove必须选其一。
update
:
document
。
更新操作。
update和remove必须选其一。
new
:
boolean。可选的。 当为true时,返回修改后的文档而不是原始文件。删除的时候,设置为true没有意义。
fields
:
document。可选的。 要返回的字段的子集。 如:fields: {<field1>: 1, <field2>: 1, ... }
upsert
:
boolean。适用于update,当没有query匹配的时候,是否插入。
writeConcern:
参考writeConcern的说明。
update和findAndModify
默认情况下,update()方法更新单个文档。 设置多参数以更新与查询条件匹配的所有文档。
update可以更新多个文档,但是Mongodb只保证单个文档的写入是原子性的。
update()方法返回一个包含操作状态的WriteResult对象。要返回更新的文档,请使用find()方法。但是,其他更新可能已经在更新和文档检索之间修改了文档。此外,如果更新仅修改了单个文档,但是多个文档匹配,则需要使用其他逻辑来标识更新的文档。
findAndModify可能引起的原子性问题:
当findAndModify()包含upsert:true选项,并且查询字段不是唯一索引时,该方法可能会在某些情况下多次插入文档。
db.people.findAndModify({
query: { name: "Andy" },
sort: { rating: 1 },
update: { $inc: { score: 1 } },
upsert:
true
当多个客户端同时发出了这个指令,然后在服务端并行执行,而都没有找到query的匹配,可能同时执行了多个upsert操作。导致数据重复。
如果不使用upsert,就没有这种问题。
findAndModify在分片集群中的要求:
在分片环境中使用findAndModify时,查询必须包含分片键。
findAndModify示例:
实例说明了在一个相同的文档中如何确保嵌入字段关联原子操作(
update
:更新)的字段是同步的。
book
=
{
_id
:
123456789
,
title
:
"MongoDB: The Definitive Guide"
,
author
:
[
"Kristina Chodorow"
,
"Mike Dirolf"
],
published_date
:
ISODate
(
"2010-09-24"
),
pages
:
216
,
language
:
"English"
,
publisher_id
:
"oreilly"
,
available
:
3
,
checkout
:
[
{
by
:
"joe"
,
date
:
ISODate
(
"2012-10-15"
)
}
]
你可以使用
db.collection.findAndModify()
方法来判断书籍是否可结算并更新新的结算信息。
在同一个文档中嵌入的
available
和
checkout
字段来确保这些字段是同步更新的
:
db
.
books
.
findAndModify
(
{
query
:
{
_id
:
123456789
,
available
:
{
$gt
:
0
}
update
:
{
$inc
:
{
available
:
-
1
},
$push
:
{
checkout
:
{
by
:
"abc"
,
date
:
new
Date
()
}
}
}
)
执行多个写入操作
首先,原则上说Mongdb没有事务的概念。
事务有ACID的概念,比如原子性,一个事务要么全部成功,要么全部失败。
如,考虑一个转账的业务,从A转账100到B,将分为两步:
A = A - 100;
B = B + 100;
在Mongdb中,如果A = A - 100;执行完,将会直接入库生效,没有回滚段的概念,所以如果此时B = B + 100;出现了问题,是不能回滚上一步A的操作的。
Mongdb在执行多个更新的时候是没有原子性的。
一个写入操作更新了多个文档:
当单个写入操作修改多个文档时,每个文档的修改是原子的,但整个操作不是原子的,而其他操作可能会交错。 但是,您可以使用$ isolation操作符隔离影响多个文档的单个写入操作。
当Mongodb执行影响多个文档的写入操作的时候,如果在中间某一个文档出现了错误,那么不会回滚之前的提交。之前的提交已经入库了。
MongoDB不隔离多文档写入操作,具有以下特点:
非时间点读操作。其中一假设读取操作在时间t1开始,并开始读取文档。写操作然后在稍后的时间t2向个文档提交更新。读操作可能会看到写操作的更新版本,因此读取操作没有时间点的概念。
读取可能会丢失在读取操作过程中更新的匹配文档。
使用$ isolation来保证隔离性:
使用$isolated操作符可以保证单个写入操作修改多个文档的时候不被交错。
$isolated其实是在整个数据库(Mongodb的手册对这点说明不清楚,也可能是在集合层面加独占锁,但是有一点文档中是说明的,不论在哪个层面加独占锁,都会导致真个数据库单线程化)加独占锁(即使是对于WiredTiger存储引擎也是),在这期间不能进行其他任何的读写操作。所以如果$isolated的操作执行的时间过长,会大大的影响系统的并发性能。
db.foo.update(
{ status :
"A" , $isolated :
{ $inc : { count :
1 } },
{ multi:
true }
注:上面说的影响
不是说可以保证多个文档更新的原子性
,$ isolation隔离操作符不为写入操作提供"all-or-nothing"原子性
(原子性的定义是要么全部成功,要么全部失败,$isolation不能保证出错回滚)
。没有$isolation运算符,多更新将允许其他操作与此更新交错。 如果这些交错操作包含写入,则更新操作可能会产生意外的结果。 通过指定$ isolated,您可以保证整个多重更新的隔离。
总结如下:
-
$ isolation不保证多个文档操作的原子性。
-
$ isolation保证多个文档操作不会被跟其他操作交错。
-
$ isolation保证此操作在进行到某一个文档的更新的时候,在不提交或者回滚之前,不会被客户端看到。也就是说不会导致这个文档的查询产生脏读。(这一段是我的理解 不一定对)
$isolated
使用的场景很苛刻。
由于单个文档可以包含多个嵌入文档,单个文档的原子性对于许多实际使用情况是足够的。 对于一系列写入操作必须在单个事务中操作的情况,您可以在应用程序中实现两阶段提交。
但是,两阶段的提交只能提供类似事务的语义。 使用两阶段提交确保数据一致性,但是在两阶段提交或回滚期间,应用程序可以返回中间数据。
副本集中使用readConcern:
在使用副本集的时候,写入操作只写入到master节点,slaver节点从master节点同步数据,所以读操作可能读取到没有同步到其他slaver的数据。
readConcern:读隔离(
New in version 3.2.
):
readConcern: { level: <"majority"|"local"|"linearizable"> }
readConcern选项可用于以下操作:
-
-
aggregate
command and the db.collection.aggregate() method
-
-
-
-
-
用于副本集和副本集分片的readConcern查询选项确定从查询返回哪些数据。
readConcern级别:
"local":默认。该查询返回实例的最新数据。不保证数据已写入大多数副本集成员(即可以回滚)。
"majority":该查询会将实例的最新数据确认为已写入副本集中的大多数成员。要使用majority级别,您必须使用--enableMajorityReadConcern命令行选项启动mongod实例(如果使用配置文件,则将replication.enableMajorityReadConcern设置为true)。
"linearizable"(add in version3.4):该查询返回反映所有成功写入的数据。
这么说如果配置了linearizable 那么针对一个集合的查询就可以避免脏读了。因为Mongdb没有事务,所以也就不存在幻读和不可重复读的定义了。不过这个功能是在当前最新的3.4版本才有的。
readConcern 解决什么问题?
readConcern
的初衷在于解决『脏读』的问题,比如用户从
MongoDB
的
primary
上读取了某一条数据,但这条数据并没有同步到大多数节点,然后
primary
就故障了,重新恢复后
这个
primary
节点会将未同步到大多数节点的数据回滚掉,导致用户读到了『脏数据』。
当指定
readConcern
级别为
majority
时,能保证用户读到的数据『已经写入到大多数节点』,而这样的数据肯定不会发生回滚,避免了脏读的问题
(
这段话不是来自官方文档,是阿里的一篇文章,这句话我不太认可,即使写入了大部分的节点,也不代表不会回滚,因为可能选举出来新节点正好没有同步这部分数据
)
。
需要注意的是,
readConcern
能保证读到的数据『不会发生回滚』,但并不能保证读到的数据是最新的,这个官网上也有说明:
在使用副本集的时候,无论读取关注级别如何,节点上的最新数据可能不会反映系统中最新版本的数据。
有用户误以为,
readConcern
指定为
majority
时,客户端会从大多数的节点读取数据,然后返回最新的数据。
实际上并不是这样,无论何种级别的
readConcern
,客户端都只会从『某一个确定的节点』(具体是哪个节点由
readPreference
决定)读取数据,该节点根据自己看到的同步状态视图,只会返回已经同步到大多数节点的数据。
-
-
-
write concern
在写操作中加入:
writeConcern:{ w
:
<
value
>
, j
:
<
boolean
>
, wtimeout
:
<
number
>
}
所有的
mongodb driver
,在执行一个写操作(
insert
、
update
、
delete
)之后,都会立刻调用
db.getLastError()
方法。这样才有机会知道刚才的写操作是否成功,如果捕获到错误,就可以进行相应的处理。处理逻辑也是完全由
client
决定的,比如写入日志、抛出错误、等待一段时间再次尝试写入等。作为
mongodb server
并不关心,
server
只负责通知
client
发生了错误
对写操作的保证,级别越高,可靠性越高但是性能越低
write concern:0
(
Unacknowledged
)
driver
调用了
getLastError()
之后,
mongod
立刻返回结果,然后才实际进行写操作。所以
getLastError()
的返回值一定是
null
,即使之后的
Apply
发生了错误,
driver
也不知道。使用这个级别的
write concern
,
driver
的写入调用立刻返回,所以性能是最好的,但是可靠性是最差的,因此并不推荐使用。
其实还有一个
w:-1
的级别,是
error ignored
,基本上和
w:0
差不多。区别在于,
w:-1
不会捕获任何错误,而
w:0
可以捕获
network error
write concern:1
(
acknowledged
)
和
Unacknowledged
的区别是,现在
mongod
只有在
Apply
(实际写入操作)完成之后,才会返回
getLastError()
的响应。所以如果写入时发生错误,
driver
就能捕获到,并进行处理。这个级别的
write concern
具备基本可靠性,也是目前
mongodb
的默认设置级别
write concern:1 & journal:true
(
Jounaled
)
mongodb
的
Apply
操作,是将数据写入内存,定期通过
fsync
写入硬盘。如果在
Apply
之后,
fsync
之前
mongod
挂了,那持久化实际上是失败的。但是在
w:1
的级别下,
driver
无法捕获到这种情况下的
error
(因为
response
在
apply
之后就已经返回到
driver
)
使用
Journal
机制
:
写操作在写入内存之后,还会写到
journal
文件中
,
实实在在的把
journal
落盘以后才会返回。
MongoDB
并不会对每一个操作都立即刷盘,而是会等最多
30ms
,把
30ms
内的写操作集中到一起,采用顺序追加的方式写入到盘里。在这
30ms
内客户端线程会处于等待状态。这样对于单个操作的总体响应时间将有所延长,但对于高并发的场景,综合下来平均吞吐能力和响应时间不会有太大的影响
write concern:2
(
Replica Acknowledged
)
这个级别只在
replica set
的部署模式下生效
这个级别下,只有
secondary
从
primary
完成了复制之后,
getLastError()
的结果才会返回。也可以同时设置
journal:true
或
j:true
,则还要等
journal
写入也成功后才会返回。但是注意,只要
primary
的
journal
写入就会返回,而不需要等待
secondary
的
journal
也写入。类似的也可以设置
w:3
,表示至少要有
3
个节点有数据;或者
w:majority
,表示
>1/2
的节点有数据
wtimeout:
写入超时时间,仅
w
的值大于
1
时有效。
当指定
{w: }
时,数据需要成功写入
number
个节点才算成功,如果写入过程中有节点故障,可能导致这个条件一直不能满足,从而一直不能向客户端发送确认结果,针对这种情况,客户端可设置
wtimeout
选项来指定超时时间,当写入过程持续超过该时间仍未结束,则认为写入失败。
journal
无论如何都是建议打开的,设置
j:true
,只是说
driver
调用
getLastError()
之后是否要等待
journal
写入完成再返回。并不是说不设置
j:true
就关闭了
server
端的
journal
一般来说,
MongoDB
建议在集群中使用
{w: "majority"}
设置。在一个集群是健壮的部署的情况下(如:足够网络带宽,机器没有满负荷),这个可以满足绝大部分数据安全的要求,因为
MongoDB
的复制在正常情况下是毫秒级别的,往往在
Journal
刷盘之前已经复制到从节点了。如果你追求完美,那么可以再进一步使用
{j:1}
Read uncommitted是默认隔离级别,适用于mongod独立实例以及复制集和分片集群。
我们上面看到通过读写锁可以保证单个实例不会看到脏读的数据,为什么这里说在单个实例上的隔离级别也是为提交读呢?看看Mongodb官方文档的解释:
单个文档的写入操作是原子的; 即如果写入正在更新文档中的多个字段,则读取器将永远不会看到只更新了一些字段的文档。
然而,虽然度去操作可能看不到部分更新的文档,但读取未提交意味着并发读取可能仍然会看到更新后的文档,但是这些文档还没有持久化。
如果是副本集,那么就不能保证已提交读,因为主节点发生故障后,其他节点接替它作为主节点,接替它的节点可能还没有同步上一个主节点的所有数据,这部分没有同步的数据就成了脏数据。
并行处理的控制允许多个应用同时运行而不会造成数据的不一致或者冲突。
一个方法是在字段上创建一个唯一性的索引。这样就可以阻止插入或者更新重复的数据。在多个字段上创建唯一性索引将保证多个字段组合的唯一性。
另外一种方法是通过在写操作中使用查询断言来指定期望的字段当前值。两阶段提交模式除了提供查询断言以外还额外可以指定期望的数据写的状态。
尽管当文档原子操作很强大,但是仍然有需要多文档事务的情况。当执行一个由连续操作组成的事务时,某些问题出现了,比如:
对于需要多文档事务的情景,你可以在你的应用里实现两阶段提交以提供这些多文档更新的支持。
使用两阶段提交保证数据是一致的
,并且在发生错误的情况下
,执行事务之前的状态是
recoverable
(可恢复的)
。然而,
在执行过程中,文档可以展示未确定的(事务提交之前的)数据和状态。
以下例子来自
mongodb
文档:
假设一个情景,你想从账户 A 转钱到账户 B 。在关系型数据库系统里,你可以在一个多语句事务内从 A账户上减去钱并且为 B 账户添加上钱。在MongoDB里,你可以模仿两阶段提交以达到一个类似的结果。
这个教程里的例子使用下面的两个集合:
-
命名为 accounts 的集合存储账户信息。
-
命名为 transactions 的集合存储有关转账事务的信息。
初始化源账户和目的账户
db.accounts.insert(
{ _id: "A", balance: 1000, pendingTransactions: [] },
{ _id: "B", balance: 1000, pendingTransactions: [] }
初始化转账记录
db.transactions.insert(
{ _id: 1, source: "A", destination: "B", value: 100, state: "initial", lastModified: new Date() }
注:我的理解:初始化操作应该是在第一次做事务的时候插入的,为了防止出现重复数据,那么需要在相应的列上加上唯一索引。如,这里应该是
source和destination作为唯一索引。而且value不应该出现在transactions表中才对。
-
检索事务开始:
var t
= db.transactions.findOne( { state:
"initial" , source: "A", destination: "B"} )
-
Update transaction state to pending:
db.transactions.update(
{ _id: t._id, state: "initial" },
$set: { state: "pending" },
$currentDate: { lastModified: true }
该操作返回具有操作状态的
WriteResult
()对象。
成功更新后,
n
次和
nModified
显示
1
。
在更新语句中,状态:"初始"条件确保没有其他进程已更新此记录。
如果
nMatched
和
nModified
为
0
,则返回到第一步以获取其他事务并重新启动该过程。
-
Apply the transaction to both accounts.
db.accounts.update(
{ _id: t.source, pendingTransactions: { $ne: t._id } },
{ $inc: { balance: -t.value }, $push: { pendingTransactions: t._id } }
db.accounts.update(
{ _id: t.destination, pendingTransactions: { $ne: t._id } },
{ $inc: { balance: t.value }, $push: { pendingTransactions: t._id } }
-
Update transaction state to applied
db.transactions.update(
{ _id: t._id, state: "pending" },
$set: { state: "applied" },
$currentDate: { lastModified: true }
-
remove both accounts' list of pending transactions
db.accounts.update(
{ _id: t.source, pendingTransactions: t._id },
{ $pull: { pendingTransactions: t._id } }
db.accounts.update(
{ _id: t.destination, pendingTransactions: t._id },
{ $pull: { pendingTransactions: t._id } }
-
Update transaction state to done.
db.transactions.update(
{ _id: t._id, state: "applied" },
$set: { state: "done" },
$currentDate: { lastModified: true }
我们习惯用自己的行为准则审视他人,并时刻准备加以指摘。