V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  h0099  ›  全部回复第 2 页 / 共 8 页
回复总数  159
1  2  3  4  5  6  7  8  
2023-01-26 09:41:03 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1403243840

github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401828929

> Interlocked 操作应该是封装的处理器提供的指令。x86 的指令本就提供原子性,而且大都可以直接加前缀 LOCK (例如 ADD [data],eax 变成 LOCK ADD [data],eax )就提供强内存序保障的原子性。而微软早就把这样的操作封装成了 Interlocked 开头的 API 函数。合理推测 .NET 的这些原语遵循了类似的命名。

xp 时有有`Interlock*()`的 win32api 了:learn.microsoft.com/en-us/windows/win32/api/winnt/nf-winnt-interlockedcompareexchange
.NET CLR 不过就是直接 P/Invoke 过去调`kernel32.dll`而已,linux 可能是调 syscall 甚至直接生成 asm
interlock 的命名词源可能是 en.wikipedia.org/wiki/Interlock

---
> 听上去有点有趣,希望能搞明白是为什么就好了。我是觉得你这里理应是不需要多一个进程锁的。

我也认为引入`SELECT ... FOR UPDATE`所在数据库层产生的`IX 锁`后其已经代替了进程锁的职责那就应该删除有关代码减少复杂度
然而在现代后端中台微服务娱乐圈带架构师们眼中看来反而不应该像 90s 的企业级 COBOL 程序员那样写上千行的 PL/SQL 以依赖于数据库层而不是后端程序的逻辑:www.v2ex.com/t/909780#r_12600576
所以他们更喜欢在程序中实现进程锁,或是引入各种 mq zookeeper 那样专门负责协调任何并行任务的消息 middleware 来重新实现数据库层的锁,并将这称为从数据库层解耦出了业务逻辑还避免了 vendor lock (尽管大型系统中本就极难更换 RDBMS )

---
> 比起说是过度应用一致性,我看不如说是不理解一致性。START TRANSACTION 和 COMMIT 并不是只要加了就没有一致性方面问题的魔法,需要正确理解和运用。

本来把多个 SQL 语句套进一个事务里就只是为了让他们变成一个原子操作,使得这些语句所造成的影响(`INSERT/UPDATE`造成写)要么都执行成功(`COMMIT`),要么都执行失败(`ROLLBACK`),所以保证了数据一致性
而这的所谓原子很明显不保证在并行事务时不会有任何`race condition`,只有事务隔离级别才能用来控制允许哪些类型的`race condition`发生
数据一致性也只是保证不会发生在一个事务中两个`INSERT`语句只有一个所产生影响实际生效了而另一个却消失了(比如 duplicated 错误导致另一个`INSERT`被`ROLLBACK`),事务在此同样不能保证在并行事务时不会发生两个事务都`SELECT+INSERT`了相同的行(也就是本帖最初的问题)
RDBMS 厂商们为了实现 ANSI SQL 4 大事务隔离级别都不约而同的选择了主要基于阻塞等待锁的实现而不是主要基于无锁数据结构所封装的 cpu 指令集提供的无锁原子操作

---
> 话说比起说是小政治家、哲学家和神学家的崇拜,我倒感觉像是伊欧那样的程序员会有的崇拜((

与此同时截止 2023 年 1 月,`四叶沙其马里 1 群皇帝日冕开发者`伊欧神仍在步`奥利金德 rust 研究潮`高强度 star 相关 repo:
![image]( user-images.githubusercontent.com/13030387/214503869-fafca63d-3b7a-471e-85a9-0b36c0adacf4.png)

---
> 是的,它是乐观的。然后这个问题的话……我知道了,它通过 SELECT 只能把乐观的条件放在某个行上,但是不可能放在满足某种条件的行现在还不存在这件事上,是不是?

一个朴素的`SELECT`不可能产生这种约束,所以有`FOR UPDATE`后缀所产生的`IX 锁`(以及`FOR SHARE`产生`IS 锁`),而产生`X 锁`很明显是会造成其他事务阻塞的
因此 EFCore 开发者 MSFT 员工将其归类为悲观并发控制:github.com/dotnet/efcore/issues/26042

---
> 想要的行为是数据库在满足对应条件的行被 INSERT 时打破这一乐观锁,但既然这样的行现在还不存在,就没法把这个条件绑定在哪个行上面,对不对?

因为乐观并发控制依赖于一个已有的`ROW_VERSION`值,如果行根本不存在那您只能定义个 NULL 来表示

---
> 那样的话,也许一个可行的办法是:首先 INSERT“空的”行(除了标识符 /主键那样的东西以外不包含有意义的数据,只有 dummy 值),失败也行。换言之哪个线程抢到了这个 INSERT 的机会根本无所谓。

这就是`INSERT IGNORE`

---
> 然后在将空行 UPDATE 为有意义的行这个操作上做乐观锁。

然而乐观并发控制本就依赖于观察`UPDATE`所返回的`affected rows`是 0 还是 1 来得知是否有其他事务已经修改了`ROW_VERSION`
那也同样可以观察`INSERT IGNORE`所返回的`affected rows`是 0 还是 1

所以 www.v2ex.com/t/908047#r_12564068 的 @codehz 早已道明:
> 我来捋一捋,这一大段先查询再插入的目的是防止重复的插入?有没有一种可能用 INSERT ON DUPLICATE 来解决呢?直接忽略重复插入的冲突有影响吗

他所说的`INSERT INTO ... ON DUPLICATE KEY UPDATE`实际上就是数据库层的 CAS 原子操作:
dev.mysql.com/doc/refman/8.0/en/insert-on-duplicate.html
stackoverflow.com/questions/45652775/thread-safety-of-insert-on-duplicate-key-update
stackoverflow.com/questions/27544540/how-exactly-is-insert-on-duplicate-key-update-atomic

> 并不需要`INSERT INTO ... ON DUPLICATE KEY UPDATE`( PGSQL 又称`UPSERT`)因为这是仅插入而没有更新或删除(即 CRUD 只有 C ) 也可以直接`INSERT IGNORE`: [dev.mysql.com/doc/refman/8.0/en/insert.html]( dev.mysql.com/doc/refman/8.0/en/insert.html)
>
> > If you use the IGNORE modifier, ignorable errors that occur while executing the INSERT statement are ignored. For example, without IGNORE, a row that duplicates an existing UNIQUE index or PRIMARY KEY value in the table causes a duplicate-key error and the statement is aborted. With IGNORE, the row is discarded and no error occurs. Ignored errors generate warnings instead.
>
> 然后在每次`INSERT`后[`SELECT ROW_COUNT`]( dev.mysql.com/doc/refman/8.0/en/information-functions.html#function_row-count)就可以知道少了多少行没有被插入(由于 DUPLICATE 或其他错误)(但只有行的数量,而非精确的对应关系,如果需要知道具体少插入了哪些行仍然需要`SELECT`之前插入的行范围)
>
> 但不论 UPSERT 还是 IGNORE 都是从数据库层面缓解问题,他不是保证永不发生 DUPLICATE 错误,而是保证发生 DUPLICATE 错误后您的程序也能跑(因为一个改成了 UPDATE ,一个将 ERR 降级到 WARN )

然而又有新的问题:
> 而我更需要避免的是这种类似 DUPLICATE 造成了数据冗余,但又完全符合数据库层的 UNIQUE 约束的问题:
> ![]( camo.githubusercontent.com/cad0a329cf8e554d8a58c361ac7f8db8c3c5d0bbef0f45579d676c171f8d8005/68747470733a2f2f692e696d6775722e636f6d2f6c3332676451412e706e67)
> 可以看到两个线程都插入了“完全一致”的行,除了 time 字段值分别是 1674453494 和 1674453492 (因此两者 INSERT 时都不会触发 DUPLICATE 错误) 而这是因为右侧线程在左侧线程于`12:39:54.874436`时间`COMMIT`之前就已经`SELECT`了,所以右侧不知道左侧即将`INSERT` time 为 1674453492 的“重复”行
> 对此问题我当然可以选择写一个基于[window function]( learnsql.com/blog/sql-window-functions-cheat-sheet/)的`DELECT`的后台 crontab (或是线程每次`INSERT`后都尝试`DELETE`一次)来定期执行删除这类冗余的“重复”行 但这跟`UPSERT/INSERT IGNORE`类似仍然是缓解问题而不是解决问题 而且`DELETE`作为事(`INSERT`)后补救也不可能解决更罕见(线程在同一秒内完成所有任务)的两个线程插入的所有字段都相同(也就是触发 DUPLICATE 错误)的场景

---
> 不这不是。ABA 问题,顾名思义,就是说 CAS 的时候读到的值跟之前读到的值是一样的,所以 CAS 会成功,但其实这个值已经被其它线程修改过又改回来了,不应该让这个 CAS 成功。如果这里的正确行为只依赖于被 CAS 的这个值本身的话这是不成问题的,成问题的情况是虽然这个共享变量本身是一样的但因为修改过所以已经不能当作仍然满足条件了。最典型的就是它是个指针,被修改过又改回来了,但它指向的东西已经不一样了,这种变化却不能被这个指针变量上的 CAS 捕获。

en.wikipedia.org/wiki/Compare-and-swap#ABA_problem 进一步指出:
> 有可能在读取旧值和尝试 CAS 之间,某些其他处理器或线程两次或多次更改内存位置,以便它获取与旧值匹配的位模式。如果这个看起来与旧值一模一样的新位模式具有不同的含义,就会出现问题:例如,它可能是回收地址或包装版本计数器。

---
> ABA 问题比这个单调递增计数器的问题困难得多。

> 跟 ROW_VERSION 基本上是一个功能只是叫法可能不一样的一个整数。

> 顺带一提,跨线程共享内存的同步问题里也有 ROW_VERSION 的类似做法,也就是使用两倍宽度的 CAS ,存放一个指针+一个版本记号。

然而 DCAS 中的额外自增就类似乐观并发控制中使用的自增`ROW_VERSION`:
> 对此的一般解决方案是使用双倍长度的 CAS (DCAS)。例如,在 32 位系统上,可以使用 64 位 CAS 。下半场用于举行柜台。操作的比较部分将指针和计数器的先前读取值与当前指针和计数器进行比较。如果它们匹配,则交换发生——新值被写入——但新值有一个递增的计数器。这意味着如果发生 ABA ,虽然指针值相同,但计数器极不可能相同

---
> 然后会碰到另一种问题,就是版本记号可能会回卷。

回顾经典之 logrotate:
> 对于 32 位值,必须发生 2^32 的倍数操作,导致计数器 wrap 并且在那一刻,指针值也必须偶然相同

en.wikipedia.org/wiki/ABA_problem#Tagged_state_reference:
> 如果“tag”字段回绕,针对 ABA 的保证将不再有效。然而,据观察,在当前现有的 CPU 上,并使用 60 位标签,只要程序生命周期(即不重新启动程序)被限制为 10 年,就不可能进行回绕;此外,有人认为,出于实际目的,通常有 40-48 位的标签就足以保证不会回绕。由于现代 CPU (特别是所有现代 x64 CPU )倾向于支持 128 位 CAS 操作,这可以提供针对 ABA 的可靠保证。

---
> 很简单:某个线程写入了这个指针,然后把不再被用到的旧指针释放了。然后某个线程又做了一遍这个过程。但之前被释放了的指针可能又被分配到,于是此期间一直没有读过这个变量的另一个线程 compare 到了跟它之前读到的相同的指针,但这个相同的指针指向的值其实已经不一样了。所以 ABA 。

en.wikipedia.org/wiki/ABA_problem 指出:
> 如果一个项目从列表中移除,删除,然后分配一个新项目并将其添加到列表中,由于[MRU]( en.wikipedia.org/wiki/Cache_replacement_policies#Most_recently_used_(MRU))内存分配,分配的对象与删除的对象位于同一位置是很常见的。因此,指向新项的指针通常等于指向旧项的指针,从而导致 ABA 问题。

---
> 而在 GC 环境下不用显式释放这个指针,GC 引擎只会在真的没有别的线程在引用这个指针了之后才会释放它(上面看到一样的指针以为数据也没变的那个线程,也保持着对它的一个引用,从而也会避免它被 GC ),所以就没有这个问题。

enwiki 同时声称:
> 另一种方法是推迟回收已删除的数据元素。延迟回收的一种方法是在具有[自动垃圾收集器]( en.wikipedia.org/wiki/Garbage_collection_(computer_science))的环境中运行算法;然而,这里的一个问题是,如果 GC 不是无锁的,那么整个系统就不是无锁的,即使数据结构本身是无锁的。

---
> 读取的时候当然不应该修改 ROW_VERSION 吧。这个版本记号显然应该跟踪写入而不是读取。

真这样做最现实的问题这些行基本上就没法被其他事务读取了(如果自增`ROW_VERSION`是在数据库层静默执行(如通过`TRIGGER`)实现的而不是执行 SQL 的程序主动`SELECT+UPDATE`,除非是后者那么程序可以在只读不写的事务中省略`UPDATE SET ROW_VERSION += 1`来避免惊扰其他并行的后续事务使其以为乐观并发控制的资源竞争失败了(也就是 CAS 中同样存在的`false-positive`))

---
> 当然了。但组成它的两个操作本身只有 共识数 1 ,而 test-and-set 具有 共识数 2 ——如果您只有两个线程的话,让它们彼此等待对方就好啦。

经典 mutex 阻塞锁
然而我无法理解 en.wikipedia.org/wiki/Consensus_(computer_science)#Consensus_number 表格中为什么声称 CAS 等原子操作的共识数是 $\infty$ 所以他们可以用于包裹任何操作

---
> 我不相信。况且您都能说出 changeset 这个词,怎么想这东西都应该早已出现在 RDBMS 领域当中了吧。

RDBMS 中的 changeset 是 MVCC 中的`SNAPSHOT`,主要用于实现`REPEATABLE READ`中禁止`non-repeatable read`的需求
github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401625868 早已道明:
> > 虽然`TRANSACTION`中的不同语句可以间隔任意久的时间,但数据库引擎对于开着的`TRANSACTION`肯定是要保持某些状态记录的
>
> 也就是 mysql 默认事务隔离级别`REPEATABLE READ`下需要对每个事务每个`SELECT`所读到的每一行都做缓存(被称作 SNAPSHOT )[dev.mysql.com/doc/refman/8.0/en/innodb-consistent-read.html]( dev.mysql.com/doc/refman/8.0/en/innodb-consistent-read.html) 这也是其他使用 MVCC 的 RDBMS 实现 ANSI SQL 中要求的 4 个事务隔离级别之`REPEATABLE READ`的常规做法 http://mbukowicz.github.io/databases/2020/05/01/snapshot-isolation-in-postgresql.html www.postgresql.org/docs/current/transaction-iso.html

企业级 orm 如 EFCore 中的 changeset 是 changetracking 的结果集:learn.microsoft.com/en-us/ef/core/change-tracking/
tbm.Crawler 中的 changeset 是基于 EFCore changetracking 的输出对每次爪巴后对一些表的影响的集合:
github.com/n0099/TiebaMonitor/blob/2f84a4ab96c07e0e1d7055d945ce9bcae9085a90/crawler/src/Tieba/Crawl/Saver/SaverChangeSet.cs#L11
github.com/n0099/TiebaMonitor/blob/2f84a4ab96c07e0e1d7055d945ce9bcae9085a90/crawler/src/Tieba/Crawl/Saver/BaseSaver.cs#L29

---
> 还是说,RDBMS 实在是不希望迫使它们的调用者在没有出错的情况下被迫 ROLLBACK ,而且可能反复地?

真这样做可能会违反`ANSI SQL`,当然从历史上看是先有 DB2 后有标准,而在 RDBMS 厂商们最初引入事务这个包裹复数 SQL 的概念时可能就业已设计为了`COMMIT`几乎不会失败:
> github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401433577
>
> > 但不太能理解的是为什么它一定要让其它事务阻塞等待,而不是先返回不可靠的`SELECT`结果,如果有冲突的话再让`COMMIT`失败,整个事务被`ROLLBACK`,而且`截至 COMMIT 成功之前调用者必须把 SELECT 结果视为不可靠的,不能当真`呢?
>
> github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401199725 早已做出循环论证:
>
> > 因为 COMMIT 本就极少会产生错误( stackoverflow.com/questions/3960189/can-a-commit-statement-in-sql-ever-fail-how

而从现在的分布式网络角度来看更容易遇到的是不知道`COMMIT`是否成功了(比如 node 卡死了无法响应,或是网络故障导致响应丢包),也就是一个介于确定性的二值`成功 /失败`之间的状态

---
> 而 Intel TSX 指令集 的做法是只是试一试能不能用这种机制无锁地完成,只要发生任何冲突、中断或者其它原因就让所有冲突方 transaction abort ,此时调用者需要回退到更可靠(性能差一点)的实现,例如全局互斥锁。也因此当他们想要禁用这个指令集的时候就直接让所有事务总是立即失败就行啦。

这就像在使用乐观并发控制时要判断`INSERT/UPDATE`所返回的`affected rows`是 0 还是 1 ,而在封装了此类操作的 orm 如[EFCore]( learn.microsoft.com/en-us/ef/core/saving/concurrency)中会直接给您 throw 一个比通用的数据库服务端异常更具体的[`DbUpdateConcurrencyException`]( learn.microsoft.com/en-us/dotnet/api/microsoft.entityframeworkcore.dbupdateconcurrencyexception)异常

---
> 显然我在写伪代码。而且我显然不喜欢这样写代码

然而我也看不懂中文编程之 github.com/wenyan-lang/wenyan/issues/617

> 只不过在照顾某位依赖机器翻译的人罢了。

不开机翻我也慢慢读懂( 30\~100words/min ),而开机翻更快( 500\~700 字 /分钟)也方便大段引用复制粘贴
2023-01-26 09:40:17 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1403181038

https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401757287
> 是的,但我完全不知道在数据库领域中相近的概念叫什么,于是只好就我了解到这些概念的领域来说。

而`四叶头子 CS 硕士 PLT 理论中级高手仏皇 irol 阁下`对此早有预言: https://t.me/s/n0099official/1777

---
> LL/SC 无疑比 CAS 来得强大。

enwiki 进一步澄清:
> 如果发生任何更新,存储条件保证失败,即使加载链接读取的值已经恢复。因此,LL/SC 对比读取后跟[比较和交换]( https://en.wikipedia.org/wiki/Compare-and-swap)(CAS) 更强,如果旧值已恢复,后者将不会检测更新(请参阅[ABA 问题]( https://en.wikipedia.org/wiki/ABA_problem))。

因此 LLSC 主要是为了解决 CAS 可能遇到的 ABA 问题
然而截止 2023 年 1 月,即便是早已被彻底禁用了的 intel tsx 指令集中也没有 arm 中的[ldarx]( https://www.ibm.com/docs/en/xl-c-aix/13.1.0?topic=functions-lqarx-ldarx-lwarx-lharx-lbarx)

---
> 请注意本讨论串中的所有`dirty read`(除了上述那一个)都应该查找替换为`phantom read`(以及 typo 之`COMMITTED`少打了一个`T`),因为我最开始看着这图时就写错了:
>
> > 可见降至 READ UNCOMMITED 后允许 dirty read 的发生
>
> 另外请注意尽管`non-repeatable read`和`phantom read`之间看起来很相似(他们的 UML 时序图甚至是完全相同的),但本质完完全全两码事: [stackoverflow.com/questions/11043712/what-is-the-difference-between-non-repeatable-read-and-phantom-read]( https://stackoverflow.com/questions/11043712/what-is-the-difference-between-non-repeatable-read-and-phantom-read)

反转了不是所有的`dirty read`都要查找替换为`phantom read`,而是应该替换为`non-repeatable read`
具体而言有

- https://github.com/n0099/TiebaMonitor/issues/32#issue-1527862957
> 可见降至 READ UNCOMMITED 后允许 dirty read 的发生,也就是对于如下时序:
>
> 没有任何约束使得线程 2 不能在线程 1 向数据库发送 INSERT 之前就查询表,自然也就没有发生 dirty read

中的措辞`dirty read`是正确的

- https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401199725
> 请注意即便 COMMIT 了也不代表其他并行事务就能知道您已经 COMMIT 了 INSERT 了行 a (也就是 dirty read ),因为在防止 dirty read 的事务隔离级别( REPEATABLE READ 及以上,如 SERIALIZED )
>
> 如果阁下的 INSERT 生效是指让其他事务看得见所 INSERT 的行( dirty read ),那么必须等到 COMMIT 之后才有可能发生 dirty read ,因此此处的所有 SESSION 的事务隔离级别都是 READ COMMITTED 而不是最弱的 READ UNCOMMITTED
>
> 我没有说把事务隔离级别从 REPEATABLE READ 降低到 READ COMMITTED 就一定会发生 dirty read

需要替换为`non-repeatable read`

---
> 然而不论您称呼它 dirty read 还是 phantom read ,我都仍然不知道那都是什么意思。

`dirty read`就是当前事务中的`SELECT`读到其他*尚未*COMMIT 的事务中此前做出的`UPDATE/INSERT`,也就是`READ UNCOMMITTED`(跟事务隔离级别同名但不是指隔离级别),所以防止`dirty read`的隔离级别叫`READ COMMITTED`
`non-repeatable read`就是当前事务中的`SELECT`读到其他*已经*COMMIT 的事务中此前做出的`UPDATE/INSERT`,也就是`READ COMMITTED`(只能读到其他已经 COMMIT 事务中做出的所有变化,排除了尚未 COMMIT 事务的),所以防止`non-repeatable read`的隔离级别叫`REPEATABLE READ`
`phantom read`在`REPEATABLE READ`事务隔离级别的基础之上额外避免了读到其他事务`INSERT`的行(当前事务此前没有读到过的)
例如一个`REPEATABLE READ`隔离级别的事务中执行两次`SELECT COUNT(*) FROM table`,而另一个事务在这两次执行之间`INSERT`了一行,那么两次 count 结果就是不同的,而在防止`phantom read`的隔离级别`SERIALIZED`中就会保证相同

---
> 另外我觉得用时序图考虑并发和同步问题其实不太好,容易被误导的。

那也没有更好的办法表达并行事件之间的关联了

---
> 而且较低的一致性约束下有可能发生根本就不能画成时序图的情形,比方说线程 1 的操作次序在线程 2 看来和在线程 3 看来可以是不一样的。

阁下是指在现代多核 cpu 中由于每个 core 都有着自己的 L1cache 所以跑在不同 core 上的指令有可能在读取同一个地址上不同的 L1cache 值(也就是 desync )吗?我的建议是滥用`volatile`
2023-01-25 16:23:40 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@yangbowen https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401828929

> 而我也大量使用了`.NET`所提供的这类`RMW 同步原语`如

Interlocked 操作应该是封装的处理器提供的指令。x86 的指令本就提供原子性,而且大都可以直接加前缀`LOCK`(例如`ADD [data],eax`变成`LOCK ADD [data],eax`)就提供强内存序保障的原子性。而微软早就把这样的操作封装成了 Interlocked 开头的 API 函数。合理推测 .NET 的这些原语遵循了类似的命名。

---

> 事实核查:截止 2023 年 1 月,我仍然无法直接在生产环境中删除进程锁,因为我观察到在删除后仍然会造成这种`race condition`并且无法得到合理解释

听上去有点有趣,希望能搞明白是为什么就好了。我是觉得你这里理应是不需要多一个进程锁的。

---

> 然而 so 人早已道明真相: https://stackoverflow.com/questions/1171749/what-does-a-transaction-around-a-single-statement-do
>
> > 这可能归因于“迷信”编程,或者它可能表明对数据库事务性质的根本误解。一种更仁慈的解释是,这只是过度应用一致性的结果,这是不恰当的,这是爱默生委婉语的另一个例子:
> > 愚蠢的一致性是小脑袋的妖精,
> > 受到小政治家、哲学家和神学家的崇拜
>
> 我的评价是:疑似当代 https://en.wikipedia.org/wiki/Cargo_cult https://en.wikipedia.org/wiki/Cargo_cult_programming https://stevemcconnell.com/articles/cargo-cult-software-engineering/

比起说是过度应用一致性,我看不如说是不理解一致性。`START TRANSACTION`和`COMMIT`并不是只要加了就没有一致性方面问题的魔法,需要正确理解和运用。
话说比起说是`小政治家、哲学家和神学家`的崇拜,我倒感觉像是伊欧那样的程序员会有的崇拜((

---

> 然而更现实的问题是乐观并发控制是用于协调`SELECT+UPDATE`而不是`SELECT+INSERT`的,而我这里又只有`INSERT`没有`UPDATE`,所以加了`ROW_VERSION`和对应的程序中乐观并发控制业务逻辑也无济于事

是的,它是乐观的。然后这个问题的话……我知道了,它通过`SELECT`只能把乐观的条件放在某个行上,但是不可能放在`满足某种条件的行现在还不存在`这件事上,是不是?
想要的行为是数据库在满足对应条件的行被`INSERT`时打破这一乐观锁,但既然这样的行现在还不存在,就没法把这个条件绑定在哪个行上面,对不对?
那样的话,也许一个可行的办法是:首先`INSERT`“空的”行(除了标识符 /主键那样的东西以外不包含有意义的数据,只有 dummy 值),失败也行。换言之哪个线程抢到了这个`INSERT`的机会根本无所谓。然后在`将空行 UPDATE 为有意义的行`这个操作上做乐观锁。

---

> 这就是阁下之后所提到的 https://en.wikipedia.org/wiki/ABA_problem 而乐观并发控制本质上也是为了解决这个

不这不是。ABA 问题,顾名思义,就是说 CAS 的时候读到的值跟之前读到的值是一样的,所以 CAS 会成功,但其实这个值已经被其它线程修改过又改回来了,不应该让这个 CAS 成功。如果这里的正确行为只依赖于被 CAS 的这个值本身的话这是不成问题的,成问题的情况是虽然这个共享变量本身是一样的但因为修改过所以已经不能当作仍然满足条件了。最典型的就是它是个指针,被修改过又改回来了,但它指向的东西已经不一样了,这种变化却不能被这个指针变量上的 CAS 捕获。
ABA 问题比这个单调递增计数器的问题困难得多。

---

> 然而将单个值上升到集合层面就麻烦的多(什么 pythonic )
> 我能想出来的是线程 1 读取后就改一下`ROW_VERSION`,也就是说`ROW_VERSION`跟踪的不再是这行被改动了几次而是被读了几次
> 但这实际上就意味着又回到了`并行度=1`的[serializability]( https://en.wikipedia.org/wiki/Serializability),因为这时只有强迫同时只有一个线程在读写才能保证每个线程的`ROW_VERSION`都是他想要的(即`COMMIT`时也没被其他事务由于`SELECT`而改变)

读取的时候当然不应该修改`ROW_VERSION`吧。这个版本记号显然应该跟踪写入而不是读取。
顺带一提,跨线程共享内存的同步问题里也有`ROW_VERSION`的类似做法,也就是使用两倍宽度的 CAS ,存放一个指针+一个版本记号。然后会碰到另一种问题,就是版本记号可能会回卷。

---

> 然而 testandset 同样是一种 atomic 操作,他的名字就已经暗示了他是把两个常见的原本是独立的原子操作给封装成又一个原子操作

当然了。但组成它的两个操作本身只有 共识数 1 ,而 test-and-set 具有 共识数 2 ——如果您只有两个线程的话,让它们彼此等待对方就好啦。

---

> 事实核查:截止 2023 年 1 月,仍然没有 RDBMS 实现了杨博文阁下所提出的这种全新的具有颠覆性的基于 changeset 的事务隔离机制

我不相信。况且您都能说出 changeset 这个词,怎么想这东西都应该早已出现在 RDBMS 领域当中了吧。
还是说,RDBMS 实在是不希望迫使它们的调用者在没有出错的情况下被迫`ROLLBACK`,而且可能反复地?
而 Intel TSX 指令集 的做法是只是试一试能不能用这种机制无锁地完成,只要发生任何冲突、中断或者其它原因就让所有冲突方 transaction abort ,此时调用者需要回退到更可靠(性能差一点)的实现,例如全局互斥锁。也因此当他们想要禁用这个指令集的时候就直接让所有事务总是立即失败就行啦。

---

> 您在写`贴吧辅助工具皇帝鸡血神` @bakasnow 最爱的易语言?

显然我在写伪代码。而且我显然不喜欢这样写代码,只不过在照顾某位依赖机器翻译的人罢了。

---

> 为什么这里会有 ABA

很简单:某个线程写入了这个指针,然后把不再被用到的旧指针释放了。然后某个线程又做了一遍这个过程。但之前被释放了的指针可能又被分配到,于是此期间一直没有读过这个变量的另一个线程 compare 到了跟它之前读到的相同的指针,但这个相同的指针指向的值其实已经不一样了。所以 ABA 。
而在 GC 环境下不用显式释放这个指针,GC 引擎只会在真的没有别的线程在引用这个指针了之后才会释放它(上面看到一样的指针以为数据也没变的那个线程,也保持着对它的一个引用,从而也会避免它被 GC ),所以就没有这个问题。

> 什么整数?

跟`ROW_VERSION`基本上是一个功能只是叫法可能不一样的一个整数。

---

> 我还在做生信,而且做的比以前大了很多。我没有去找过 lys ,这边事情比较多,基本上都在做研究

您好。原来您就是他们先前说的 西兔 。久仰大名。
2023-01-25 16:23:24 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@yangbowen github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401757287

> 其实你只要说这句就够了,其它诸如 intel/arm risc/cisc 指令集之争等在这个问题当中似乎是无关的吧。

是的,但我完全不知道在数据库领域中相近的概念叫什么,于是只好就我了解到这些概念的领域来说。
LL/SC 无疑比 CAS 来得强大。

---

> 请注意本讨论串中的所有`dirty read`(除了上述那一个)都应该查找替换为`phantom read`(以及 typo 之`COMMITTED`少打了一个`T`),因为我最开始看着这图时就写错了:
>
> > 可见降至 READ UNCOMMITED 后允许 dirty read 的发生
>
> 另外请注意尽管`non-repeatable read`和`phantom read`之间看起来很相似(他们的 UML 时序图甚至是完全相同的),但本质完完全全两码事:

然而不论您称呼它 dirty read 还是 phantom read ,我都仍然不知道那都是什么意思。
另外我觉得用时序图考虑并发和同步问题其实不太好,容易被误导的。而且较低的一致性约束下有可能发生根本就不能画成时序图的情形,比方说线程 1 的操作次序在线程 2 看来和在线程 3 看来可以是不一样的。
2023-01-25 16:22:21 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401625868

github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401433577

> 但不太能理解的是为什么它一定要让其它事务阻塞等待,而不是先返回不可靠的`SELECT`结果,如果有冲突的话再让`COMMIT`失败,整个事务被`ROLLBACK`,而且`截至 COMMIT 成功之前调用者必须把 SELECT 结果视为不可靠的,不能当真`呢?

github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401199725 早已做出循环论证:
> 因为 COMMIT 本就极少会产生错误( stackoverflow.com/questions/3960189/can-a-commit-statement-in-sql-ever-fail-how

`如果有冲突的话再让 COMMIT 失败`中的冲突是指`INSERT`还是`SELECT`造成的?`INSERT`时 github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401199725 早已道明:
> 对于 mysql ,如果`线程 2INSERT 行 a`时数据库层发现这违反了`UNIQUE 约束`(因为`线程 1`已经这么做了),那么在此时就会返回错误并静默地`ROLLBACK`事务而不是等到`COMMIT`时再这么做

而`SELECT`如何冲突?

从实用角度讲数据库用户期望的是获取可靠的值,但却拿到了不可靠的值,那用户该如何进行后续的假设?
并且理论上如果用户要的就是不可靠值那他应该可以通过往`SELECT`追加`FOR SHARE`来做到这一点:
github.com/n0099/TiebaMonitor/issues/32#issuecomment-1399331576
> > 这里还值得注意的是,不同事务可以在间隙上持有冲突锁。例如,事务 A 可以在一个间隙上持有一个共享间隙锁(间隙 S 锁),而事务 B 在同一间隙上持有一个独占间隙锁(间隙 X 锁)。允许冲突间隙锁的原因是,如果从索引中清除记录,则必须合并不同事务在记录上持有的间隙锁。
> > 间隙锁 InnoDB 是“纯粹抑制性的”,这意味着它们的唯一目的是防止其他事务插入间隙。间隙锁可以共存。一个事务获取的间隙锁不会阻止另一个事务在同一间隙上获取间隙锁。共享和排他间隙锁之间没有区别。它们彼此不冲突,并且它们执行相同的功能。
>
> 这应该暗示了`SELECT ... WHERE uniq > 1 FOR SHARE`( gap IS )可以与`SELECT ... WHERE uniq > 1 FOR UPDATE`( gap IX )同时执行

---
> 虽然`TRANSACTION`中的不同语句可以间隔任意久的时间,但数据库引擎对于开着的`TRANSACTION`肯定是要保持某些状态记录的

也就是 mysql 默认事务隔离级别`REPEATABLE READ`下需要对每个事务每个`SELECT`所读到的每一行都做缓存(被称作 SNAPSHOT ) dev.mysql.com/doc/refman/8.0/en/innodb-consistent-read.html
这也是其他使用 MVCC 的 RDBMS 实现 ANSI SQL 中要求的 4 个事务隔离级别之`REPEATABLE READ`的常规做法 http://mbukowicz.github.io/databases/2020/05/01/snapshot-isolation-in-postgresql.html www.postgresql.org/docs/current/transaction-iso.html

---
> 那么它完全可以做成为每个`TRANSACTION`记录 读取集 和 写入集 ,仅当从`START TRANSACTION`到`COMMIT`之间读取集未曾和其它事务的写入集发生重合时才允许`COMMIT`成功,否则要求调用者退回`START TRANSACTION`重来而且先前的`SELECT`结果必须不作数。

然而问题在于`REPEATABLE READ`顾名思义只协调了`SELECT`,他对`INSERT``UPDATE`顶多有阻塞(如果使用了`SELECT ... FOR UPDATE`导致`IX 锁`)而不会出于其他事务已经`INSERT/UPDATE`了本事务此前`SELECT`的行就拦截两个事务中的某一个(而阁下要的是两个事务都`ROLLBACK`)

---
> 但这种原理应该是首先出现在数据库领域当中,后来才启发了 CPU 设计者设计类似原理的 CPU 指令的。只是我不知道具体哪个数据库的哪种操作允许这样,而不是采用锁和等待

我局的是`奥利金德 rust 头子 LG 神` @LasmGratel 最爱的 pgsql 所采用的 en.wikipedia.org/wiki/Multiversion_concurrency_control (然而 mysql innodb 也是 MVCC ,很明显 MVCC 也只是一个抽象概念,而 RDBMS 们滥用他只是为了方便实现`REPEATABLE READ`)

---
> 但在数据库的情况当中,一个事务的时间跨度长得多,单个或几个线程始终得不到进展是个更现实的问题

最容易遇到的还是死锁,其次是这种活锁,并且 mysql 无法主动检测出一直有多个事务在争夺同一资源(行集合)并介入其中(比如暂时把资源改成[serializability]( en.wikipedia.org/wiki/Serializability)的以便让事务们缓缓通过),除非阁下愿意像老 DBA 那样 247 高强度盯着 netdata 收集的 metrics 然后手动分析
![image]( user-images.githubusercontent.com/13030387/214255699-71e2b4a1-9b2f-47ac-b8d9-97b8d34e1dd9.png)
2023-01-25 16:21:53 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401548572

github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401418933

> 其实你只要说这句就够了,其它诸如持久化等在这个问题当中似乎是无关的吧。

github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401116944
> 提供 [CAS]( en.wikipedia.org/wiki/Compare-and-swap) 原子操作:如果满足[条件]那么[写入]否则[失败]

其实你只要说这句就够了,其它诸如 intel/arm risc/cisc 指令集之争等在这个问题当中似乎是无关的吧。

---
> 对于多个写操作,`TRANSACTION`保证了它们整体的原子性——同时的或将来的其它会话要么看到所有这些写入,要么全都不看到。是吧?

在`READ COMMITTED`及以上事务隔离级别中是能保证不发生`dirty read`的,只有降低到

回顾经典之`3.数据库事务隔离级别从 READ COMMITED 降至 READ UNCOMMITED`节的图
![image]( user-images.githubusercontent.com/13030387/214240624-e183eff5-e1d5-4733-99ad-8911c0d5c54f.png)

请注意本讨论串中的所有`dirty read`(除了上述那一个)都应该查找替换为`phantom read`(以及 typo 之`COMMITTED`少打了一个`T`),因为我最开始看着这图时就写错了:
> 可见降至 READ UNCOMMITED 后允许 dirty read 的发生

另外请注意尽管`non-repeatable read`和`phantom read`之间看起来很相似(他们的 UML 时序图甚至是完全相同的),但本质完完全全两码事:stackoverflow.com/questions/11043712/what-is-the-difference-between-non-repeatable-read-and-phantom-read

---
> 这完全能够理解,不理解的部分是`TRANSACTION`对事务内的读取(`SELECT`)如何起作用。如果读取同样被包含在这种原子性当中,那您开头所说的进程全局锁理应是多余的

`SELECT`是否对其所读出来的行资源进行锁定是取决于您有没有追加`FOR SHARE/UPDATE`的,建议复习:
dev.mysql.com/doc/refman/8.0/en/innodb-locking.html#innodb-intention-locks
dev.mysql.com/doc/refman/8.0/en/innodb-locking.html#innodb-insert-intention-locks
dev.mysql.com/doc/refman/8.0/en/innodb-locking-reads.html

---
> 反之,在只有一个写入语句的简化情况下`TRANSACTION`的存在似乎并没有任何作用的样子。

dev.mysql.com/doc/refman/8.0/en/commit.html 对此早有预言:
> 默认情况下,MySQL 在 启用[自动提交]( dev.mysql.com/doc/refman/8.0/en/glossary.html#glos_autocommit)模式的情况下运行。这意味着,当不在事务内时,每个语句都是原子的,就好像它被 START TRANSACTIONand 包围一样 COMMIT 。您不能使用 ROLLBACK 来撤销效果;但是,如果在语句执行期间发生错误,则回滚该语句。

---
> 或者这么说:如果将`SELECT`移到`START TRANSACTION`之前(事务外),行为上是否会有任何可以依赖的差别呢?

移出去会导致单条`SELECT`由于[`AUTO_COMMIT`]( dev.mysql.com/doc/refman/8.0/en/innodb-autocommit-commit-rollback.html)而变成一个只有他一个语句的事务(其隔离级别由于没有显式指定所以会使用 mysql 默认的`REPEATABLE READ`,然而实际上对于单语句事务而言任何隔离级别都是相同的),如果`SELECT`后面没有`FOR UPDATE`那么移出去也是一样的,即便有由于这是单语句事务所以 IX 锁也立即被释放了那还是没有造成差别

而在 stackoverflow.com/questions/1976686/is-there-a-difference-between-a-select-statement-inside-a-transaction-and-one-th/1976701#1976701 的中他所说的
> 是的,事务内部的人可以看到该事务中其他先前的 Insert/Update/delete 语句所做的更改;事务外的 Select 语句不能。

在`SELECT`所在的事务的隔离级别是`READ UNCOMMITTED`时应该是不成立的

然而 so 人早已道明真相:stackoverflow.com/questions/1171749/what-does-a-transaction-around-a-single-statement-do
> 这可能归因于“迷信”编程,或者它可能表明对数据库事务性质的根本误解。一种更仁慈的解释是,这只是过度应用一致性的结果,这是不恰当的,这是爱默生委婉语的另一个例子:
> 愚蠢的一致性是小脑袋的妖精,
> 受到小政治家、哲学家和神学家的崇拜

我的评价是:疑似当代 en.wikipedia.org/wiki/Cargo_cult en.wikipedia.org/wiki/Cargo_cult_programming stevemcconnell.com/articles/cargo-cult-software-engineering/

---

> `生效`的意思当然就是说能够被读取看到。`COMMIT`之前的`INSERT`不会被看到效果

这就是`READ COMMITTED`事务隔离级别

---
> 但,在只需要一个`INSERT`的简化例子当中,彻底把`TRANSACTION`删掉,让`INSERT`立即生效(比起`INSERT`之后该线程紧接着执行`COMMIT`让`INSERT`生效,并没有在这之间和全局锁发生任何交互),跟开头的例子有什么差别呢?这是我所没能理解的。

开头的例子里也不是只有一个`INSERT`啊,任何线程在`INSERT`前都必须先`SELECT`以排除已存在的行

---
> 调用者基于先前`SELECT`到的,而现在已经被修改掉的数据,所作出的呢?是否有这样的事务隔离级别,从而在这种情况下也会`ROLLBACK`整个事务?

无,所以需要乐观并发控制,如 MSSQL 中基于一个单调自增的`ROW_VERSION`字段来跟踪有无`UPDATE`
建议回顾 www.v2ex.com/t/909762#r_12593822

> 乐观并发控制是要求每个客户端的后续读写都得依赖于此前查询所获得的的`ROW_VERSION`
> 比如事务 1`SELECT yi, ver FROM t`获得`(a,0)`
> 那么事务 1 后续的所有对该行的读写( SELECT/UPDATE )都得依赖于`ver=0`这个此前获得的事实
> 也就是对于读:事务 1 期望重新`SELECT yi, ver FROM t`获得的还是`(a,0)`,这叫做`REPEATABLE READ`(避免了幻读`phantom read`),注意 mysql 默认的事务隔离级别就是`REPEATABLE READ`所以默认是已经保证了在同一事务内不断重新执行`SELECT yi, ver FROM t`返回的永远都是`(a,0)`
> 对于写:事务 1 期望`UPDATE t SET 某个其他字段 = 某值 WHERE yi = a AND ver = 0`所返回的`affected rows`是 1 行,而如果不是 1 行而是 0 行就意味着表 t 中已经不存在符合约束`WHERE yi = a AND ver = 0`的行,也就是说行`yi=a`已经被其他事务修改了
> 建议参考以某企业级 orm EFCore 为背景的 MSDN 微软谜语:learn.microsoft.com/en-us/ef/core/saving/concurrency
> 以及我之前对于类似的场景(但是是 INSERT-only 而不是 UPDATE )使用了数据库层提供的悲观并发控制,毕竟在 SQL 末尾加`FOR UPDATE`可比在 mysql 里用 TRIGGER 模拟单调递增的自增 sql server 的 ROW_VERSION 类型然后在程序业务逻辑里写乐观控制所带来的一大堆 if 简单多了:www.v2ex.com/t/908047

然而更现实的问题是乐观并发控制是用于协调`SELECT+UPDATE`而不是`SELECT+INSERT`的,而我这里又只有`INSERT`没有`UPDATE`,所以加了`ROW_VERSION`和对应的程序中乐观并发控制业务逻辑也无济于事

---
> 举个例子,假设自行实现某种自增计数器,而且并没有在数据库中设置相应的约束。线程 1 读取了计数器的当前值,根据当前值递增后写入递增后的值,这些操作被放在一个事务当中。线程 2 也做同样的事,但是刚好在线程 1 的两个操作之间完成了线程 2 的所有操作。于是,线程 1 准备写入的值跟线程 2 是一样的。

这就是阁下之后所提到的 en.wikipedia.org/wiki/ABA_problem 而乐观并发控制本质上也是为了解决这个

---
> 像这样的情况下就算这个写入操作是合法的,不违反数据库的约束,也理应让线程 1 的事务回滚而非成功提交。广泛一点来说,线程 1 的事务的 读取集 (事务中读过哪些数据——准备写入的东西可能是调用者根据这些数据推算出的)跟线程 2 的事务的 写入集 (事务中写入了哪些数据)有重合,这样的情况下很可能不应该让两个事务都成功提交。写入的数据可能依赖于先前的读取,而且调用者(在得知事务成功提交后)的后续操作可能依赖于`确实是在读取到的这样的数据的基础上发生了这样的写入`。

然而将单个值上升到集合层面就麻烦的多(什么 pythonic )
我能想出来的是线程 1 读取后就改一下`ROW_VERSION`,也就是说`ROW_VERSION`跟踪的不再是这行被改动了几次而是被读了几次
但这实际上就意味着又回到了`并行度=1`的[serializability]( en.wikipedia.org/wiki/Serializability),因为这时只有强迫同时只有一个线程在读写才能保证每个线程的`ROW_VERSION`都是他想要的(即`COMMIT`时也没被其他事务由于`SELECT`而改变)

---
> 实际上是可能的,只不过大概不是你要的效果。那就是所有需要原子操作的地方获取全局锁。意味着不论这些原子操作访问了什么,都无法并行。

然而很明显没人想要`四叶头子 CS 硕士 PLT 理论中级高手仏皇 irol 阁下`写 java 遇到并行问题时就无脑套一个大`synchronized() {}`block 来降低`并行度=1`,这只能作为性能不重要但一致性和事务成功率重要的金融军事等企业级场景

---
> 对于根本没有什么硬件原子操作支持的平台,就可以这样实现原子操作。但截至目前我并未知悉有这样的平台(多处理器,但没有硬件原子操作支持)。
> 实现 自旋锁 或者 互斥体 并不需要 CAS ,只需要比它弱得多的 [test-and-set]( en.wikipedia.org/wiki/Test-and-set)

然而 testandset 同样是一种 atomic 操作,他的名字就已经暗示了他是把两个常见的原本是独立的原子操作给封装成又一个原子操作

---
> 显然用 CAS 或者 LL/SC 很容易实现 test-and-set ,反过来则不行

en.wikipedia.org/wiki/Consensus_(computer_science)#Consensus_number 的表格中也进一步指出:
Consensus number|Objects
-|-
$1$|atomic read/write registers, mutex
$\infty$|compare-and-swap, load-link/store-conditional,[40] memory-to-memory move and swap, queue with peek operation, fetch&cons, sticky byte

> 根据层次结构,即使在 2 进程系统中,读 /写寄存器也无法解决一致性问题。栈、队列等数据结构只能解决两个进程之间的共识问题。然而,一些并发对象是通用的(在表中用$\infty$),这意味着它们可以解决任意数量的进程之间的共识,并且可以通过操作序列模拟任何其他对象

---
> 除了这种完全舍弃并行的做法以外,既然这个事务性是跟 读取集 写入集 相关联的,那么我当然认为这种事务约束理应由数据库而不是调用者实现。

事实核查:截止 2023 年 1 月,仍然没有 RDBMS 实现了杨博文阁下所提出的这种全新的具有颠覆性的基于 changeset 的事务隔离机制

---

> 另外其实也不是不可以,比方说在 GC 环境下可以这么做:
> ```c
> 指针 全局值;
> 读对象() {
> 指针 临时值 = 原子读取(全局值);
> return 解引用(临时值);
> }
> CAS 对象(对象 expected, 对象 desired) {
> 指针 临时值 = 原子读取(全局值);
> if (对象相等(解引用(临时值), expected)) {
> 指针 临时值 2 = new 对象(desired);
> return 原子 CAS(全局值, 临时值, 临时值 2);
> } else {
> return false;
> }
> }
> ```

您在写`贴吧辅助工具皇帝鸡血神` @bakasnow 最爱的易语言?

---
> 也就是说不修改对象,而是每次都创建新的对象,然后对指针做 CAS

那阁下实际上是在对机器字长 32/64 位的指针做 CAS ,而 CPU 指令集当然会提供能对机器字长长的数据进行 CAS 的指令

> 在 GC 环境下是可行的,在非 GC 环境下则会面临释放时机的问题,还有 ABA 问题 。

为什么这里会有 ABA

> 这个对象可以是任意大的数据结构,比方说可以是一整个 dict 数据结构,只不过为了修改一个值拷贝整个数据结构很容易让它完全丧失性能优势,还不如直接全局加锁。

疑似`新创无际 rust 人生信壬西兔人迺逸夫` @Prunoideae 的内存安全性和 ios 的跨 app share 文件必须完整复制粘贴

> 总之这里只是说不能简单地组合多个窄 CAS 来代替一个宽 CAS 。事实上,之所以处理器通常提供到两倍机器字长的 CAS ,一个主要原因是上述(无锁数据结构)方案,再加上一个额外的整数跟这个指针一同被 CAS ,就需要两倍机器字长的 CAS 。

什么整数?
2023-01-25 16:20:59 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@yangbowen https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401433577

> 而对于 SQL 的`TRANSACTION`而言不可能要求用户一次性就能把他想封装成原子操作的所有语句都发送过来让数据库处理 也就是说用户发送的语句是一条条分开的(每条语句之间可以间隔无限久时间),而不是在单次通信中就发送(实际上如果用户提前就知道我到底要发送多少条语句,那`TRANSACTION`所带来的原子性的意义就被削弱了,只剩下事务中任意语句失败时整个事务都会`ROLLBACK`以保证数据一致性这个用途)

这很合理。但是……

> ```sql
> START TRANSACTION;
> SELECT ...;
> INSERT ...;
> COMMIT;
> ```
>
> 那么此时如果某个语句显式声明了锁,如`SELECT ... FOR UPDATE`产生了`IX 锁(有意排他锁)` 或由于当前事务隔离级别(如`SERIALIZED`)导致语句隐式声明了锁 那么有上锁就必定会有并行事务一直阻塞等待解锁,直到 https://serverfault.com/questions/241823/setting-a-time-limit-for-a-transaction-in-mysql-innodb

但不太能理解的是为什么它一定要让其它事务阻塞等待,而不是先返回不可靠的`SELECT`结果,如果有冲突的话再让`COMMIT`失败,整个事务被`ROLLBACK`,而且`截至 COMMIT 成功之前调用者必须把 SELECT 结果视为不可靠的,不能当真`呢?
虽然`TRANSACTION`中的不同语句可以间隔任意久的时间,但数据库引擎对于开着的`TRANSACTION`肯定是要保持某些状态记录的。那么它完全可以做成为每个`TRANSACTION`记录 读取集 和 写入集 ,仅当从`START TRANSACTION`到`COMMIT`之间读取集未曾和其它事务的写入集发生重合时才允许`COMMIT`成功,否则要求调用者退回`START TRANSACTION`重来而且先前的`SELECT`结果必须不作数。
[Intel TSX]( https://en.wikipedia.org/wiki/Transactional_Synchronization_Extensions) 这个指令集就是这么做的,如果发生任何冲突就失败并且让调用者重来。利用现代处理器已有的缓存一致性协议等,处理器确实能够检测到冲突并在这样的情况下撤销已经执行的指令的影响。只不过比较不幸,它大概很难实现得安全,反复地出现安全漏洞(恶意的代码能够让`本来无权读取的内存`对`将要被撤销的状态`产生影响,再通过某些侧信道区别这些`本应撤销的状态差异`,从而作未授权的读取)迫使英特尔禁用该指令集。
但这种原理应该是首先出现在数据库领域当中,后来才启发了 CPU 设计者设计类似原理的 CPU 指令的。只是我不知道具体哪个数据库的哪种操作允许这样,而不是采用锁和等待。

> > * 它也不会发生[活锁]( https://en.wikipedia.org/wiki/Deadlock#Livelock)。如果某个线程的 CAS 失败,那是因为其它线程在它读取和 CAS 的间隙当中做了写入。虽然此线程需要在循环中重新 CAS 一遍,但导致其失败的线程一定成功完成了写入。所以总是有进展发生,不存在活锁。
>
> 而对于这种传统的阻塞锁设计而言只要复数个线程请求同一资源的频率足够高就很容易导致`livelock`,结果哪个线程都没有真的`INSERT`,enwiki 条目也进一步指出`livelock`是[starvation]( https://en.wikipedia.org/wiki/Starvation_(computer_science))的特例:`Livelock is a special case of resource starvation; the general definition only states that a specific process is not progressing.`

我上面说`不发生活锁`只是说整个系统一定有进展,但在非常高频率的情况下不保证单个线程一定有进展。相反,确实有可能某个线程反复地 CAS 失败,而且当它重新算好下次要 CAS 的值的时候这个共享的变量又被改掉了,导致这个线程没有进展。
在 CPU 指令的情况当中,线程通常有很多事要做,而 CAS 的单次循环通常很短,可能只是一个递增递减之类的。所以不太会一直在争抢某一个共享变量。得到进展的线程多半可以去做别的不争抢这个变量的工作。但在数据库的情况当中,一个事务的时间跨度长得多,单个或几个线程始终得不到进展是个更现实的问题。
2023-01-25 16:20:44 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@yangbowen https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401418933

> 并且在`COMMIT`之前会有许多个`INSERT`被执行

其实你只要说这句就够了,其它诸如持久化等在这个问题当中似乎是无关的吧。
对于多个写操作,`TRANSACTION`保证了它们整体的原子性——同时的或将来的其它会话要么看到所有这些写入,要么全都不看到。是吧?
这完全能够理解,不理解的部分是`TRANSACTION`对事务内的读取(`SELECT`)如何起作用。如果读取同样被包含在这种原子性当中,那您开头所说的进程全局锁理应是多余的;反之,在只有一个写入语句的简化情况下`TRANSACTION`的存在似乎并没有任何作用的样子。
或者这么说:如果将`SELECT`移到`START TRANSACTION`之前(事务外),行为上是否会有任何可以依赖的差别呢?

---

> 如果阁下的`INSERT 生效`是指让其他事务看得见所`INSERT`的行(`dirty read`),那么必须等到`COMMIT`之后才有可能发生`dirty read`,因此此处的所有`SESSION`的事务隔离级别都是`READ COMMITTED`而不是最弱的`READ UNCOMMITTED`

`生效`的意思当然就是说能够被读取看到。`COMMIT`之前的`INSERT`不会被看到效果。但,在只需要一个`INSERT`的简化例子当中,彻底把`TRANSACTION`删掉,让`INSERT`立即生效(比起`INSERT`之后该线程紧接着执行`COMMIT`让`INSERT`生效,并没有在这之间和全局锁发生任何交互),跟开头的例子有什么差别呢?这是我所没能理解的。

> 对于 mysql ,如果`线程 2INSERT 行 a`时数据库层发现这违反了`UNIQUE 约束`(因为`线程 1`已经这么做了),那么在此时就会返回错误并静默地`ROLLBACK`事务而不是等到`COMMIT`时再这么做

不难理解当`INSERT`由于违反约束而失败时整个事务失败并被`ROLLBACK`。但假如`INSERT`并没有(数据库的)错误,却是调用者基于先前`SELECT`到的,而现在已经被修改掉的数据,所作出的呢?是否有这样的事务隔离级别,从而在这种情况下也会`ROLLBACK`整个事务?
举个例子,假设自行实现某种自增计数器,而且并没有在数据库中设置相应的约束。线程 1 读取了计数器的当前值,根据当前值递增后写入递增后的值,这些操作被放在一个事务当中。线程 2 也做同样的事,但是刚好在线程 1 的两个操作之间完成了线程 2 的所有操作。于是,线程 1 准备写入的值跟线程 2 是一样的。
像这样的情况下就算这个写入操作是合法的,不违反数据库的约束,也理应让线程 1 的事务回滚而非成功提交。广泛一点来说,线程 1 的事务的 读取集 (事务中读过哪些数据——准备写入的东西可能是调用者根据这些数据推算出的)跟线程 2 的事务的 写入集 (事务中写入了哪些数据)有重合,这样的情况下很可能不应该让两个事务都成功提交。写入的数据可能依赖于先前的读取,而且调用者(在得知事务成功提交后)的后续操作可能依赖于`确实是在读取到的这样的数据的基础上发生了这样的写入`。

---

> 而仅靠一个与 mysqld 进程毫无关系的进程范围全局锁是不可能保证 `SELECT/INSERT`和对`进程锁`的写 会被包裹进同一个原子操作的

实际上是可能的,只不过大概不是你要的效果。那就是所有需要原子操作的地方获取全局锁。意味着不论这些原子操作访问了什么,都无法并行。
事实上,包括 C++ 标准库在内的一些库,对于根本没有什么硬件原子操作支持的平台,就可以这样实现原子操作。但截至目前我并未知悉有这样的平台(多处理器,但没有硬件原子操作支持)。
实现 自旋锁 或者 互斥体 并不需要 CAS ,只需要比它弱得多的 [test-and-set]( https://en.wikipedia.org/wiki/Test-and-set) ——将某个 bit 置为 1 并返回置位前的值,就够了:
```
获取锁() {
do {
临时值 = test_and_set(全局位);
} while (临时值 == 0);
}
释放锁() {
clear(全局位);
}
```
显然用 CAS 或者 LL/SC 很容易实现 test-and-set ,反过来则不行。

---

除了这种完全舍弃并行的做法以外,既然这个事务性是跟 读取集 写入集 相关联的,那么我当然认为这种事务约束理应由数据库而不是调用者实现。

---

> `无法只用较窄的原子 CAS 实现更宽的原子 CAS` 我的理解是同样是因为阁下此前提及的`共识数`,比如用两个`32 位 CAS 操作`来试图封装一个`64 位资源`成原子性的会导致其`共识数`不同,如 https://en.wikipedia.org/wiki/Consensus_(computer_science)#Consensus_number 的表格中指出:

我想这并不是一回事。共识数跟操作的宽度并没有必然关系吧。
另外其实也不是不可以,比方说在 GC 环境下可以这么做:
```
指针 全局值;
读对象() {
指针 临时值 = 原子读取(全局值);
return 解引用(临时值);
}
CAS 对象(对象 expected, 对象 desired) {
指针 临时值 = 原子读取(全局值);
if (对象相等(解引用(临时值), expected)) {
指针 临时值 2 = new 对象(desired);
return 原子 CAS(全局值, 临时值, 临时值 2);
} else {
return false;
}
}
```
也就是说不修改对象,而是每次都创建新的对象,然后对指针做 CAS 。在 GC 环境下是可行的,在非 GC 环境下则会面临释放时机的问题,还有 ABA 问题 。
这个对象可以是任意大的数据结构,比方说可以是一整个 dict 数据结构,只不过为了修改一个值拷贝整个数据结构很容易让它完全丧失性能优势,还不如直接全局加锁。
总之这里只是说不能简单地组合多个窄 CAS 来代替一个宽 CAS 。事实上,之所以处理器通常提供到两倍机器字长的 CAS ,一个主要原因是上述(无锁数据结构)方案,再加上一个额外的整数跟这个指针一同被 CAS ,就需要两倍机器字长的 CAS 。
2023-01-25 16:20:23 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401291684

TL;DR: 我在 mysql 中使用`TRANSACTION`封装两个 [`SELECT ... FOR UPDATE`]( https://dev.mysql.com/doc/refman/8.0/en/innodb-locking-reads.html)所产生的[`IX 锁`]( https://dev.mysql.com/doc/refman/8.0/en/innodb-locking.html#innodb-intention-locks) 和 `INSERT` 语句使其成为原子操作实现了类似于[`ConcurrentDictionary.GetOrAdd`]( https://learn.microsoft.com/en-us/dotnet/api/system.collections.concurrent.concurrentdictionary-2.getoradd)的同步原语(您可以将具有`UNIQUE`约束的二维表视作一个`Dict<uniqueKey,fieldsTuple>`数据结构)

https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1379143131
> 不难看出此时进程范围的全局锁(进程锁)已经没有存在的必要了,因为他的目的跟 IX 锁是类似的(但他无法目前像 IX 锁那样无限期阻塞任何试图读取进程锁的线程)

事实核查:截止 2023 年 1 月,我仍然无法直接在生产环境中删除进程锁,因为我观察到在删除后仍然会造成这种`race condition`并且无法得到合理解释
typo:最后一个 18.应该是 19
> 12. 并且也别使用 RAII 在编译时给类结构附赠的元数据

13. 应该说是 RTTI ,然而即便 RTTI 也只是标准化了 boost 那样的库早已实现的部分中极少量的编译时生成的类型信息,如`typeid(some_class_ref)`所获得的`std::type_info`引用中有用的信息就一个 name (所以 c#直接把这简化成了[`nameof()`]( https://stackoverflow.com/questions/31695900/what-is-the-purpose-of-nameof)),您连想要运行时获知这个 some_class_ref (即便这个 some_class_ref 的类型已经被限定编译时已知了,也就是不是 c 人最爱的迫真泛型之`void*`)里头有多少成员,分别叫什么都不可能靠`type_info`做到,而是需要使用 boost 人最爱的宏-模板实现元编程魔法之 https://stackoverflow.com/questions/41453/how-can-i-add-reflection-to-a-c-application
而 RTTI 的`dynamic_cast<>`则用于标准化其他库中对类实例继承层级进行 downcast 的操作,但这在 java 人眼中就是一个普通的`(sub)base`
所以 https://en.wikipedia.org/wiki/Run-time_type_information 声称`运行时类型信息是一个更通用的概念的特化,称为类型自省`,而 https://en.wikipedia.org/wiki/Type_introspection 又进一步区分出:
> 内省不应与反射相混淆,后者更进一步,是程序在运行时操作对象的值、元数据、属性和函数的能力

一个简单的比喻就是 introspection 是`r--`的,而 reflection 是`rwx`的

---

14. 实际上如果完全没有反射可用(哪怕只是能获知某个已知类型里有哪些成员,所以我认为`std::type_info`绝非反射也不是完整的 type introspection ),那么实现任何程度的(un)serialize (将任何程序外部数据结构不论是人类可读的字符串表达( json/xml/yaml/http/1.1 )还是朴素的`byte[]`( protobuf/http/2/3/mysql 等任何数据库的二进制通信)转换为程序内部的,反之亦然)都必须得绕到元编程 approach 上,因此结果就是您要么手写这样的大段模板+四叶信安底层壬上壬上海贵族 FSF EFF 精神会员杨博文阁下 @yangbowen 最爱的 constexpr 所实现的元编程: https://stackoverflow.com/questions/17549906/c-json-serialization 来处理 json ,要么使用基于`std::vector/map`(也就是`array/dict`)的在某野榜 https://github.com/miloyip/nativejson-benchmark 中名列前茅的某库 https://github.com/nlohmann/json 来直接把所有解析出来的 jsonelement 塞进集合数据结构中然后疯狂重载运算符来尽可能使您交互这个数据结构的语法看起来像是在操作类 /struct (但很明显还是得通过满屏幕的`["字符串"]`来访问字段,因此这个库类似于我去年 c#重写 tbm 爬虫时询问`奥利金德数理逻辑带手子当代图灵可计算性理论中级高手 dc 神` @dylech30th 时他所指出使用.net6 中引入的 JsonNode 从语法上看就像是 php 人操作 array 来缓存 json: https://kevsoft.net/2021/12/29/manipulate-json-with-system-text-json-nodes.html 但这并不像 js 人那样直接把 object 当 map 用,而是反过来拿动态结构的 map 当静态结构的 object 使用,实际上.net4 时为了 IronPython/Ruby (以及现在的 peachpie )所依赖的 DLR 而引入的 dynamic 类型也是如此实现的,可谓是极限一换一)
如果只从运行时(不考虑编译时耗时)性能而不是用户要写多少样板代码的角度来看,有`基于编译时 codegen 的元编程>运行时对着类反射>运行时缓存在 dict 里`,这背后的原因是显然的:编译时 codegen 是典型的空间换时间+编译时时间换运行时时间以实现运行时只需要像 9.中提到的`member selector`那样对着编译时已知的类成员读写,而运行时反射是拖延到了运行时来获知有哪些类成员并读写,存在 dict 里则是朴素的实现:拿 map 当 object
所以也就有了允许用户自己通过一个 attribute 就能 optin 的把基于运行时反射的 jsonserializer 换成基于编译时 source generator 的:
https://learn.microsoft.com/en-us/dotnet/standard/serialization/system-text-json/source-generation-modes
进一步的还可以把运行时构造正则表达式的 NFA/DFA 这个较耗时的过程也给提前到编译时 codegen
https://devblogs.microsoft.com/dotnet/regular-expression-improvements-in-dotnet-7/#source-generation
而 cpp 人杨博文阁下则有着高度自由的 constexpr 可以实现基于编译时 codegen 的元编程

15. 根据`8. 阁下不应该只将 attribute 视作运行时反射的唯一用途`,可以合理假设阁下似乎搞混了完完全全两码事的两个抽象概念之 attribute 与 reflection ,attribute 本质上就是给代码(用 PLT 的话说是给 AST 上的某些 node )添加一些用户(或 codegen 生成,没有人阻止阁下通过 source generator 来给程序集中的所有类的所有成员都加个`[A114514Attribute]`)定义的元数据,但 attribute 本身并不规定您(用户或 codegen )要用什么方式来读取 attribute ,而最常见的(某些语言中甚至是唯一)的读取方式就是使用 reflection 提供的 api (因为 reflection 本身就可以在运行时获取类型元数据,这其中自然可以包括 attribute ),所以阁下才会将 attribute 视作是 reflection 的一部分,然而实际上在编译时 codegen 实现的元编程( lombok/source generator )中,您写的元编程代码的确是在使用 reflection api 获得 attribute 并根据其生成一些代码,但`您写的元编程代码`实际上早在编译时而非运行时就已经被执行了,因此运行时根本没有什么 lombok/source generator 给您在程序启动后现场制作这些代码,除非是 18.中提及的运行时 codegen

16. 然而即便没有 attribute 也仍然无法阻止往 AST node 添加元数据的自由行径,典型例子就是 naming convention as metadata ,如在没有 member visibility 约束的语言(如 es2022 之前的 js https://v8.dev/features/class-fields )中人们会约定以`_`开头的函数暗示其是私有的所以外部不应该使用,又比如 java 人最爱复制粘贴的 g/setter 样板代码中 g/set 开头的类方法暗示了其是对这个类的某种属性的抽象 accessor ,也就是 https://en.wikipedia.org/wiki/Mutator_method

17. 并且在有 reflection 时阁下可以进一步的基于命名约定对符合特定模式的类成员进行批量操作,而这并不需要他们具有 attribute 所带来的元数据(假如这个语言(如 js 与 php7.x )没有 attribute ,或者说命名约定本身就是一种元数据),例如 laravel 从 ror 那抄来的用于在 orm 中允许用户复用他重复使用的 query builder 们(为了 DRY )而引入的 scope: https://laravel.com/docs/9.x/eloquent#local-scopes https://guides.rubyonrails.org/active_record_querying.html#scopes ,其本质不过就是直接去 model 类中寻找以 scope 开头的同名方法然后传参返回其放回值而已,再比如更常见的各种(un)serializer 库通常会允许您自定义不同命名规范之间的转换规则,假如您在 c#中想要解析一些使用 snake_case 字段名的 json ,而众所周知 c#对 public 类成员是 CamelCase ,所以直接(un)serialize 永远不会得到您想要的类 /json ,那您就需要指定一个 CamelCase<->snake_case 的命名转换器来让(un)serializer 库能够改变其通过反射或 codegen 来在内部查找类成员 /json 字段时所依据的字符串名字,回顾经典之隔壁 https://www.v2ex.com/t/910246#r_12602250 @Rocketer 所遇到的:
> 它每遇到一个大写字母,就会转成下划线加小写的形式,比如我写 imageURL ,它实际操作的是 html 里 image_u_r_l 这个属性,所以要求我们必须用 imageUrl 这样的命名,才能操作到预期的 image_url 这个属性

18. 在 13.中我所做的奇妙深刻比喻之`reflection 是 rwx`中的 x 具体是指运行时继续进行元编程 codegen 的罪恶行径并允许执行生成的代码(在 c#中这叫 emit https://stackoverflow.com/questions/2312623/real-world-uses-of-reflection-emit 其主要用于我以前跟阁下提到的 linq2sql ( http://www.albahari.com/nutshell/linqkit.aspx ) IQueryable 所依赖的 expression tree 的`.compile()`(运行时通过代码来构造一个 AST ,然后一键 compile 其内部就通过 emit 给您在 CLR 中凭空生成了一个指向 lambda 类结构的委托供您使用 https://www.tutorialsteacher.com/linq/expression-tree ),在 java/jvm 语言中叫 asm hack ,玩 mcmod 的 dddd ,这也意味着在 clr/jvm 中您也可以做动态语言人最爱的 eval is evil ,例如将用户输入字符串作为 linq2sql 的 expression tree: https://dynamic-linq.net/expression-language ,或是 json 中的字符串作为代码来执行: https://github.com/microsoft/RulesEngine ),而本帖中的其他元编程基本都是在编译时就进行了的

18. TL;DR:
attribute 是向代码中( AST node 上)添加元数据程度的能力
reflection 是编译 /运行时自省( reflect )程序集( assembly )自身程度的能力(这句话我前几年就多次重复过)
type introspection 是类似于 reflection 程度的能力,但自由度 /表达力上是后者的子集(基本上就只能对类型继承树做 down/upcasting )
metaprogramming 是用代码操作(读写执行等)代码(例如 lisp 中一切皆 s-expr 使得代码和数据混为了一谈)程度的能力,这也意味着一个静态分析器甚至阁下最爱写的读阁下亲自设计的 DSL 代码然后走 lexer parser 管道出 AST 的程序也是元编程
codegen 是用代码写代码(增殖)程度的能力,请注意许多泰国第几的自媒体都武断地将元编程描述为用代码写代码,然而 codegen 实际上只是元编程的一个子集(如同 type introspection 是 reflection 的子集)
编译时 codegen 是在 AOT 编译时完成的 codegen 任务然后把生成代码也缝合进构建结果中程度的能力
运行时 codegen 是在 JIT (这的 JIT 是指在运行时而不是 JIT 优化器)运行时再次解释 /编译代码(既可以是一些字符串作为代码,也可以是 AST )然后把生成代码缝合进当前运行时符号表中程度的能力
eval 是对调用 /执行运行时 codegen 的解释 /编译结果(例如运行时 codegen 导致一个新的类声明被凭空产生,然后就可以 eval 地 new 他以获得类实例,而这在编译时是完全不可能预知的)程度的能力
如果某人(切勿对号入座)觉得 lombok 特色基于 attribute 的元编程以避免 g/setter 样板代码:
```java
@Getter @Setter private int age = 10;
```
足够的反直觉
那么他大概率也会将 c#的 auto prop 语法糖视作类似的谜语:
```csharp
public int Age { get; set; } = 10;
```
2023-01-24 09:24:21 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401263844

而我也大量使用了`.NET`所提供的这类`RMW 同步原语`如
- https://learn.microsoft.com/en-us/dotnet/api/system.threading.interlocked
https://github.com/n0099/TiebaMonitor/blob/5f6abb0ac8581d09903cdb9da667d7b99b8427dd/crawler/src/Worker/ArchiveCrawlWorker.cs#L86
https://github.com/n0099/TiebaMonitor/blob/5f6abb0ac8581d09903cdb9da667d7b99b8427dd/crawler/src/Worker/ArchiveCrawlWorker.cs#L67
https://github.com/n0099/TiebaMonitor/blob/2f84a4ab96c07e0e1d7055d945ce9bcae9085a90/crawler/src/Tieba/ClientRequesterTcs.cs#L26
https://github.com/n0099/TiebaMonitor/blob/2f84a4ab96c07e0e1d7055d945ce9bcae9085a90/crawler/src/Tieba/ClientRequesterTcs.cs#L69
- https://learn.microsoft.com/en-us/dotnet/api/system.collections.concurrent.concurrentdictionary-2
https://github.com/n0099/TiebaMonitor/search?q=concurrent

然而很明显`.NET`对`system.collections.concurrent`下的类的内部实现并不一定是完全采用基于`RMW 同步原语`的无锁操作设计的:
https://devblogs.microsoft.com/pfxteam/faq-are-all-of-the-new-concurrent-collections-lock-free/
> (此答案基于 .NET Framework 4 。 由于以下详细信息是未记录的实施细节,因此它们可能会在未来的版本中更改。)
> 否。新的 System.Collections.Concurrent 命名空间中的所有集合在某种程度上都采用了无锁技术以实现一般性能优势,但在某些情况下使用传统锁。
> ConcurrentBag<T> 有时需要锁定,但对于某些并发场景(例如,许多线程以相同的速率进行生产和消费),它是一个非常有效的集合。
> ConcurrentDictionary<TKey,TValue> 在向字典中添加或更新数据时使用细粒度锁定,但它对于读取操作是完全无锁的。 这样针对以字典读取为最频繁操作的场景进行了优化。

https://www.red-gate.com/simple-talk/blogs/inside-the-concurrent-collections-concurrentdictionary/ 进一步指出:
> 那么,如果你要实现一个线程安全的字典,你会怎么做?天真的实现是简单地在所有访问字典的方法周围加一个锁。这可行,但不允许太多并发。
> 幸运的是,使用的分桶 Dictionary 允许对此进行简单但有效的改进——每个桶一个锁。这允许修改不同存储桶的不同线程并行进行。任何对存储桶内容进行更改的线程都会锁定该存储桶,确保这些更改是线程安全的。将每个桶映射到锁的方法是 GetBucketAndLockNo 方法:
```csharp
private void GetBucketAndLockNo(
int hashcode, out int bucketNo, out int lockNo, int bucketCount) {

// the bucket number is the hashcode (without the initial sign bit)
// modulo the number of buckets
bucketNo = (hashcode & 0x7fffffff) % bucketCount;

// and the lock number is the bucket number modulo the number of locks
lockNo = bucketNo % m_locks.Length;
}
```
> 但是,这确实需要对存储桶的实现方式进行一些更改。非并发使用的单个后备数组中的“隐式”链表 Dictionary 在不同的桶之间增加了依赖性,因为每个桶都使用相同的后备数组。相反,ConcurrentDictionary 在每个桶上使用严格的链表:
> ![image]( https://user-images.githubusercontent.com/13030387/214192943-2de2a6ee-195f-4d1f-b302-2ff922eff717.png)
> 这确保每个桶都与所有其他桶完全分开;从桶中添加或删除项目独立于对其他桶的任何更改。

所以就有了基于`NonBlockingHashMap`这个无锁数据结构(众所周知 dict 本质`hashmap+bucket array`)实现的`ConcurrentDictionary`: https://github.com/VSadov/NonBlocking

进一步的我在`奥利金德数理逻辑带手子当代图灵可计算性理论中级高手 dc 神` @dylech30th 的指导下也意识到了接连使用复数个原子操作不代表这个操作集合也是原子性的(从`共识数`理论可得),所以我在 https://github.com/n0099/TiebaMonitor/blob/c414ca3429ceb1cd4a7607c10fb79cb608b7cd2d/crawler/src/Tieba/Crawl/CrawlerLocks.cs#L44 中还是需要无脑 lock 整个`ConcurrentDictionary`类实例使得对其的复数个原子操作都被包裹进一个原子操作中(就像 SQL `TRANSACTION`),这实际上使得在这里使用`ConcurrentDictionary`没啥意义了,因为其内部的每个原子操作又带来了不必要(整个 dict 业已被锁所以`并行度=1`)的无锁 /有锁`.NET`实现开销
2023-01-24 09:23:54 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401223094

github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401116944

> 我的理解是这里需要的行为实际上是一个原子的 [RMW 操作]( en.wikipedia.org/wiki/Read%E2%80%93modify%E2%80%93write) ——如何插入这一行是依赖于 相同的行是否已被插入 这个要读取到的条件的。这个读操作+插入操作整体上必须是原子的 /事务的。

是,所以阁下也看到了我后来需要给`SELECT`加上`FOR UPDATE`从而实现每个线程通过`SELECT`就能锁住他们准备`INSERT`的`行 a 或 b`,mysql 称其为`IX 锁`:dev.mysql.com/doc/refman/8.0/en/innodb-locking.html#innodb-intention-locks

> 那我觉得您的这个场景也是类似的,您需要的是一个原子的 仅当不会冲突才写入 的操作,不可能只用低共识数的 总是读取 总是写入 操作实现。

而仅靠一个与 mysqld 进程毫无关系的进程范围全局锁是不可能保证 `SELECT/INSERT`和对`进程锁`的写 会被包裹进同一个原子操作的

> CAS 、LL/SC 具有更高的 共识数 ,不可能只用 原子读 、原子写 之类的具有更低 共识数 的操作实现,无论做多少个这样的操作。

所以我们的`四叶头子 CS 硕士 PLT 理论中级高手仏皇 irol 阁下` @kokoro-aya 再一次从计算机科学理论研究的角度为我们提前证明了这一点,而无需亲自下凡接触 mysqld

> * 它不会发生死锁。不论 CAS 是否成功发生,它都立即返回而不作等待。它根本不阻塞,所以也不存在死锁。

而对于 SQL 的`TRANSACTION`而言不可能要求用户一次性就能把他想封装成原子操作的所有语句都发送过来让数据库处理
也就是说用户发送的语句是一条条分开的(每条语句之间可以间隔无限久时间),而不是在单次通信中就发送(实际上如果用户提前就知道我到底要发送多少条语句,那`TRANSACTION`所带来的原子性的意义就被削弱了,只剩下事务中任意语句失败时整个事务都会`ROLLBACK`以保证数据一致性这个用途)
```sql
START TRANSACTION;
SELECT ...;
INSERT ...;
COMMIT;
```
那么此时如果某个语句显式声明了锁,如`SELECT ... FOR UPDATE`产生了`IX 锁(有意排他锁)`
或由于当前事务隔离级别(如`SERIALIZED`)导致语句隐式声明了锁
那么有上锁就必定会有并行事务一直阻塞等待解锁,直到 serverfault.com/questions/241823/setting-a-time-limit-for-a-transaction-in-mysql-innodb

> * 它也不会发生[活锁]( en.wikipedia.org/wiki/Deadlock#Livelock)。如果某个线程的 CAS 失败,那是因为其它线程在它读取和 CAS 的间隙当中做了写入。虽然此线程需要在循环中重新 CAS 一遍,但导致其失败的线程一定成功完成了写入。所以总是有进展发生,不存在活锁。

而对于这种传统的阻塞锁设计而言只要复数个线程请求同一资源的频率足够高就很容易导致`livelock`,结果哪个线程都没有真的`INSERT`,enwiki 条目也进一步指出`livelock`是[starvation]( en.wikipedia.org/wiki/Starvation_(computer_science))的特例:`Livelock is a special case of resource starvation; the general definition only states that a specific process is not progressing.`

> * CPU 提供的这种指令通常宽度有限——只能对一定宽度的数据做这个原子操作,不能将这种原子性扩展到更大的数据结构当中。这种宽度限制不能被简单地克服,无法只用较窄的原子 CAS 实现更宽的原子 CAS 。x86 最长提供到机器字长两倍宽度的 CAS ,即 32 位下的 CMPXCHG8B 指令和 64 位下的 CMPXCHG16B 指令。

`无法只用较窄的原子 CAS 实现更宽的原子 CAS` 我的理解是同样是因为阁下此前提及的`共识数`,比如用两个`32 位 CAS 操作`来试图封装一个`64 位资源`成原子性的会导致其`共识数`不同,如 en.wikipedia.org/wiki/Consensus_(computer_science)#Consensus_number 的表格中指出:
Consensus number|Objects
-|-
$2n-2$|n-register assignment

> 如何用宽度受限的原子 CAS 操作实现更复杂的无锁数据结构是一个被广泛研究的问题。但对数据库这类更重量级的软件实现(而且可以接受高得多的操作延迟)而言,理应不受如此紧凑的限制。

所以传统数据库厂商无法把 CPU 指令集层面提供的`同步原语`进一步封装嵌入 RDBMS 设计中通过抽象隔离暴露给用户来用

> * 上面用伪代码表示的这个方案只涉及了`总是要写入只是写入多少需要根据读取值决定`的简单情况。对这个做一定的调整也不难类似地实现例如`只对当前全局值的一部分情况要做写入,否则需要等待其它线程对全局值做更多修改`之类的情形。或者说这个`while`可以兼具自旋锁的功能。同时根据需要还可以在循环体内加入 sleep 或者阻塞的语句。这些情况下,上述关于`它不会死锁也不会活锁`的表述不再适用。

只要引入了对`desync`(当要写入的值已经被改了就说明发送了同步失效,也就是违反了 en.wikipedia.org/wiki/Linearizability )的资源进行等待(不论上锁还是解锁)都会重新回到阻塞锁模型中所以`dead/livelock`的幽灵又回来了

> 总之,这是一个很通用的原理。我猜对于数据库的分布式访问来说应该也是有原理相当的构造的。只是发生在更长的延时、更大的数据、更复杂的数据结构。

传统老牌 RDBMS 中基本没有什么无锁数据结构,毕竟其内部结构实现过于复杂恶俗使得他们无从下手改造成无锁的,这也是为什么 V2EX 的 @daxiguayawww.v2ex.com/t/908047#r_12595620 指出
> 还要考虑间隔锁、表锁之类的问题,除非死锁的时候我会去 DEBUG 数据库的锁状态,其它情况我想操这个心 :)
2023-01-24 09:23:11 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@n0099 github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401199725

github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401081050

> 既然`线程 2`在`START TRANSACTION`之后的读`SELECT * FROM t`,由于`线程 1`的写的成功`COMMIT`,其读取值已不再正确,那么`线程 2`的`COMMIT`不该失败吗?否则它岂不是`TRANSACTION`了个寂寞?

在图
user-images.githubusercontent.com/13030387/214179293-c04a07a2-41cd-4b01-bb01-3852c4a426e3.png
中`线程 2`是在`线程 1`执行`INSERT`和`COMMIT`之前就`SELECT`了的,因此`线程 2`认为行 a 不存在,而`线程 2`如果不`INSERT`行 a 而是直接`COMMIT`那么什么错误都不会发生
因为`COMMIT`本就极少会产生错误( stackoverflow.com/questions/3960189/can-a-commit-statement-in-sql-ever-fail-how ),所以所有图中的`DUPLICATE`错误都是在执行`INSERT`时就发生的而不是`COMMIT`(图中画在一起了所以容易误导)

SQL 中的`TRANSACTION`只是用来封装多个 SQL 使其成为原子操作的,就像 CAS

> 如果`TRANSACTION`的存在并没有让事务中的这两个语句产生什么关系,换言之`COMMIT`只是让`INSERT`生效的话。

`COMMIT`让`INSERT`生效只不过是二次确认了`写入行 a 或 b`这个操作所以数据库会把这个行真的写入硬盘

实际上对于 mysql innodb 而言`COMMIT`写入后还有一大堆内存缓冲区如[redolog]( dev.mysql.com/doc/refman/8.0/en/optimizing-innodb-logging.html) [doublewrite]( dev.mysql.com/doc/refman/8.0/en/innodb-doublewrite-buffer.html),只有等到这些内存缓存的 buffer page 也被 fsync 到硬盘上了才是真的数据落地
然而有些硬盘驱动会欺骗系统以让[fsync syscall]( dev.mysql.com/doc/refman/8.0/en/innodb-parameters.html#sysvar_innodb_flush_method)立即返回但实际上数据还在硬盘的缓存里并没有实际写入持久存储:
www.percona.com/blog/2018/02/08/fsync-performance-storage-devices/
dev.mysql.com/doc/refman/8.0/en/innodb-parameters.html#sysvar_innodb_flush_log_at_trx_commit
> 许多操作系统和一些磁盘硬件会欺骗刷新到磁盘的操作。他们可能会告诉 [mysqld]( dev.mysql.com/doc/refman/8.0/en/mysqld.html)刷新已经发生,即使它没有发生。在这种情况下,即使使用推荐的设置也无法保证事务的持久性,在最坏的情况下,断电可能会损坏 InnoDB 数据。在 SCSI 磁盘控制器或磁盘本身中使用电池供电的磁盘缓存可以加快文件刷新速度,并使操作更安全。您还可以尝试禁用硬件缓存中的磁盘写入缓存。

但这一切对数据库用户而言都是无关的(抽象隔离),用户只需要知道`COMMIT`了就是不可撤销地写入数据库了
请注意即便`COMMIT`了也不代表其他并行事务就能知道您已经`COMMIT`了`INSERT`了`行 a`(也就是`dirty read`),因为在防止`dirty read`的事务隔离级别(`REPEATABLE READ`及以上,如`SERIALIZED`)中其他事务有可能不知道您`INSERT`了的(因为其他事务先前`SELECT`过所以产生了`SNAPSHOT`,从而保证`REPEATABLE READ`)

> 那么既然您的两个(或更多个)线程,在`INSERT`和`COMMIT`**之间**并没有与全局锁或者其它线程有任何交互

实际运行时环境的线程比这的 2 个更多,并且在`COMMIT`之前会有许多个`INSERT`被执行,所以会有更多交互,我画的图是试图简化模型

> 那么从开始`INSERT`到`COMMIT`起作用的这段时间对于该线程以外是没有看得见的效果的。`INSERT`立即生效,跟`INSERT`然后立即`COMMIT`然后生效,从外面看起来是一样的。所以,这和您不用`TRANSACTION`应当没有任何差别。

如果阁下的`INSERT 生效`是指让其他事务看得见所`INSERT`的行(`dirty read`),那么必须等到`COMMIT`之后才有可能发生`dirty read`,因此此处的所有`SESSION`的事务隔离级别都是`READ COMMITTED`而不是最弱的`READ UNCOMMITTED`
对于 mysql ,如果`线程 2INSERT 行 a`时数据库层发现这违反了`UNIQUE 约束`(因为`线程 1`已经这么做了),那么在此时就会返回错误并静默地`ROLLBACK`事务而不是等到`COMMIT`时再这么做
使用事务包裹`SELECT`和`INSERT`的目的是为了让他们进入同一个原子操作中(就像 CAS ),因为实际上`在`COMMIT`之前会有许多个`INSERT`被执行`所以需要避免在`INSERT`重复行时由于 mysql 返回错误而只`INSERT`了一半的行

> 这应该也是不对的吧?允许 dirty read 的发生,应该并不是说保证它会发生?

我没有说把事务隔离级别从`REPEATABLE READ`降低到`READ COMMITTED`就一定会发生`dirty read`,如果您只有一个线程在这对着一个`SESSION`执行 SQL (也就是`并行度=1`),那么什么`race condition`都不会发生
2023-01-24 09:22:08 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
@yangbowen https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401116944

> `DUPLICATED`表示`线程 2`试图插入已经被`线程 1`插入了的行,因此违反了数据库层的`UNIQUE`约束

我的理解是这里需要的行为实际上是一个原子的 [RMW 操作]( https://en.wikipedia.org/wiki/Read%E2%80%93modify%E2%80%93write) ——如何插入这一行是依赖于 相同的行是否已被插入 这个要读取到的条件的。这个读操作+插入操作整体上必须是原子的 /事务的。
比较常见的一种做法是提供 [CAS]( https://en.wikipedia.org/wiki/Compare-and-swap) 原子操作:如果满足[条件]那么[写入]否则[失败] 。另一种做法是提供 [LL/SC]( https://en.wikipedia.org/wiki/Load-link/store-conditional) :如果先前读取的[几个位置]没有被写入那么[写入]否则[失败]。x86 提供前者,而 ARM 提供后者,而不只是提供原子的读、写。以 CAS 为例,使用者可以采取如下方案:
```
临时值 = 读(全局值);
临时值 2 = 计算(临时值);
while (!CAS(全局值, 临时值, 临时值 2)) {
临时值 = 读(全局值);
临时值 2 = 计算(临时值);
}
```
其中`CAS`是原子的
```
CAS(data, expected, desired) {
if (data == expected) {
data = desired;
return true;
} else {
return false;
}
}
```
实际上维基百科关于上面说的 RMW 操作的 [词条]( https://en.wikipedia.org/wiki/Read%E2%80%93modify%E2%80%93write) 也已指出,CAS 、LL/SC 具有更高的 共识数 ,不可能只用 原子读 、原子写 之类的具有更低 共识数 的操作实现,无论做多少个这样的操作。
那我觉得您的这个场景也是类似的,您需要的是一个原子的 仅当不会冲突才写入 的操作,不可能只用低共识数的 总是读取 总是写入 操作实现。

---

关于这个方案再多说几点。

- 它不会发生死锁。不论 CAS 是否成功发生,它都立即返回而不作等待。它根本不阻塞,所以也不存在死锁。
- 它也不会发生[活锁]( https://en.wikipedia.org/wiki/Deadlock#Livelock)。如果某个线程的 CAS 失败,那是因为其它线程在它读取和 CAS 的间隙当中做了写入。虽然此线程需要在循环中重新 CAS 一遍,但导致其失败的线程一定成功完成了写入。所以总是有进展发生,不存在活锁。
- CPU 提供的这种指令通常宽度有限——只能对一定宽度的数据做这个原子操作,不能将这种原子性扩展到更大的数据结构当中。这种宽度限制不能被简单地克服,无法只用较窄的原子 CAS 实现更宽的原子 CAS 。x86 最长提供到机器字长两倍宽度的 CAS ,即 32 位下的 CMPXCHG8B 指令和 64 位下的 CMPXCHG16B 指令。如何用宽度受限的原子 CAS 操作实现更复杂的无锁数据结构是一个被广泛研究的问题。但对数据库这类更重量级的软件实现(而且可以接受高得多的操作延迟)而言,理应不受如此紧凑的限制。
- 上面用伪代码表示的这个方案只涉及了`总是要写入只是写入多少需要根据读取值决定`的简单情况。对这个做一定的调整也不难类似地实现例如`只对当前全局值的一部分情况要做写入,否则需要等待其它线程对全局值做更多修改`之类的情形。或者说这个`while`可以兼具自旋锁的功能。同时根据需要还可以在循环体内加入 sleep 或者阻塞的语句。这些情况下,上述关于`它不会死锁也不会活锁`的表述不再适用。

总之,这是一个很通用的原理。我猜对于数据库的分布式访问来说应该也是有原理相当的构造的。只是发生在更长的延时、更大的数据、更复杂的数据结构。
2023-01-24 09:21:41 +08:00
回复了 h0099 创建的主题 程序员 如何从理论上避免这类并行任务交错执行时的冲突问题
https://github.com/n0099/TiebaMonitor/issues/32#issuecomment-1401081050 @yangbowen

> 可以看出在符合这个时序图的流程中进程锁和数据库层事务都无法阻止这种冲突,因为
> 1. `线程 2`访问数据库表中已有行的时机早于`` 线程 1``COMMIT ``他的`INSERT`,所以`线程 2`无法预见`线程 1`将在未来插入行`a`(由于`READ COMMITED`事务隔离级别)
> 2. `线程 2`访问进程锁的时机又晚于`线程 1`完成`COMMIT`和释放进程锁中的行`a`,所以`线程 2`也不知道此前`线程 1`已经插入了行`a`

蛮怪的。我不懂数据库但是,既然`线程 2`在`START TRANSACTION`之后的读`SELECT * FROM t`,由于`线程 1`的写的成功`COMMIT`,其读取值已不再正确,那么`线程 2`的`COMMIT`不该失败吗?否则它岂不是`TRANSACTION`了个寂寞?
如果`TRANSACTION`的存在并没有让事务中的这两个语句产生什么关系,换言之`COMMIT`只是让`INSERT`生效的话。那么既然您的两个(或更多个)线程,在`INSERT`和`COMMIT`**之间**并没有与全局锁或者其它线程有任何交互,那么从开始`INSERT`到`COMMIT`起作用的这段时间对于该线程以外是没有看得见的效果的。`INSERT`立即生效,跟`INSERT`然后立即`COMMIT`然后生效,从外面看起来是一样的。所以,这和您不用`TRANSACTION`应当没有任何差别。

> 可见降至`READ UNCOMMITED`后允许`dirty read`的发生,也就是对于如下时序:

这应该也是不对的吧?允许`dirty read`的发生,应该并不是说保证它会发生?
1. `@before` 和 `@after` 是指 JUnit 中的一个 attribute? https://stackoverflow.com/questions/20295578/difference-between-before-beforeclass-beforeeach-and-beforeall 结合阁下最近的回复 https://www.v2ex.com/t/910378#reply8 ,我暂且蒙古

> Kotlin 能做到的 Scala 都能做到

2. 经典类型系统的表达力决定了整个语言能做到什么

> lombok 那套,感觉预处理的写法让代码变得不透明了

3. 不用 lombok 难道您很喜欢手动复制粘贴满屏幕的 g/setter 方法和字段访问吗(而很明显 java 没有 c#的 auto prop 语法糖)?要是复制粘贴过程中扣错字段名了呢?
4. 如果阁下不喜欢静态语言中用于实现 ruby 那样的元编程的 source generator 轮子那我建议您也少碰 c/cpp 的宏和`php: hypertext preprocessor`和 css 预处理器( sass scss less ),因为他们的目的都是像 c#人滥用语法糖那样让代码变得不透明(然而语法糖远没有元编程自由,所以不透明的程度不如后者)
5. 与此同时截止 2023 年 1 月,奥利金德数理理论学家 dc 神的旗舰开源项目免 fq 上 p 站的 pixeval 第三方 c#客户端中仍在使用 source generator 来自动复制粘贴 i18n 文本: https://github.com/Pixeval/Pixeval/commit/ee13443205f8ed68dcc6dce87687f4cb341dde27 https://github.com/Pixeval/Pixeval/pull/278 在我看来这同样的`灯谜大会`
6. 但我在 https://github.com/n0099/TiebaMonitor/commit/8874e423b5345e66f81fc59e1ffe83f64a7d6d89 之后也希望能用 source generator 来自动生成我来回复制粘贴了十分钟的这些类型不安全(如果符号名不同也没有错误,也就是 3.中的`复制粘贴过程中扣错字段名`)的狗屎样板

7. 请问如何在这 https://github.com/n0099/TiebaMonitor/commit/4f098c8ef7f2fdd089a43ca99746a666c4bd10fc 之中避免使用 attribute 同时又不需要在每次使用 jsonserializer.serialize 时手动判断参数类型并决定是否传入这个 converter? https://learn.microsoft.com/en-us/dotnet/standard/serialization/system-text-json/converters-how-to

8. 阁下不应该只将 attribute 视作运行时反射的唯一用途,尽管这是其常见用途,对于刚从动态语言转静态语言的人(如我)而言滥用反射主要是为了实现动态语言中常用的表达(所以我以前说动态语言天天反射)

9. 而在 https://github.com/n0099/TiebaMonitor/commit/34f9c32dd346a22878ea8dcf2ac82fe46169c8bc 中我将类型确定的反射都改成了朴素的所谓`member selector`(也就是通过函数参数将 project 出某个类成员的任务委托给 caller 而不是硬编码在内部)

10. 但在 https://github.com/n0099/TiebaMonitor/blob/c414ca3429ceb1cd4a7607c10fb79cb608b7cd2d/crawler/src/Tieba/Crawl/Saver/CommonInSavers.cs#L79 中我并没有将这的反射给彻底削除,因为 https://github.com/n0099/TiebaMonitor/blob/c414ca3429ceb1cd4a7607c10fb79cb608b7cd2d/crawler/src/Tieba/Crawl/Saver/StaticCommonInSavers.cs#L5 的目的只是把类 https://github.com/n0099/TiebaMonitor/blob/v2/crawler/src/Db/Post/ThreadPost.cs 和类 https://github.com/n0099/TiebaMonitor/blob/v2/crawler/src/Db/Revision/ThreadRevision.cs 之间名字相同的字段给合并赋值一遍(也就是 js 人最爱的`Object.assign({}, {})`),我当然可以用同样的手法来把这个反射 setvalue 给换成调用 revivison 类中的某种 merge 方法并在其中逐一复制所有已知的硬编码的类实例中同名的 prop 值,就像是阁下最痛恨的对`两个结构相似的类`却要写高度相似的重复代码来处理不同的类型: https://github.com/n0099/TiebaMonitor/blob/c414ca3429ceb1cd4a7607c10fb79cb608b7cd2d/crawler/src/Tieba/Crawl/Parser/ThreadParser.cs#L17 ,也就是我此前于 https://sora.ink/archives/1574?replytocom=800#respond 中所说的:
> @dylech30th ts 那种 ducktype 也算传统 oo 的严格 subtype?
> 就像四叶 CS 硕士 PLT 中级高手 irol 阁下此前锐评 java 魔怔人为了让两个结构十分相似的类能够兼容而写出一个逐类 prop 去复制粘贴的 converter (常见于 bean 中,而我也被迫在 c#中写出了这样的恶俗玩意: https://github.com/n0099/TiebaMonitor/blob/e84a230fa0eb1c1095f6b6aa74b34a29f1f6a69d/crawler/src/Tieba/Crawl/Parser/ThreadParser.cs#L45 )的刷代码函数和运行时开销的罪恶行径,而在 ducktyping 中只要结构相似那他们就是互相兼容同一个类型(如果不考虑逆变协变不变)

11. 然而我也只多举了一个反射的常见用例,事实上由于 8.中的`动态语言天天反射`使得您总能找到新的奇妙深刻反射(远比您所见的基于字符串的 DI/IoCcontainer/AOP 谔谔)

12. 如果阁下想完全不用反射建议去写 AOT 编译的 c/cpp/rust ,并且也别使用 RAII 在编译时给类结构附赠的元数据
2023-01-24 00:25:27 +08:00
回复了 ggp1ot2 创建的主题 程序员 为啥我做了 nginx 反向代理,还是能通过 ip 直接访问?
2023-01-22 01:14:37 +08:00
回复了 Aloento 创建的主题 奇思妙想 有没有一种通过 RPC 操作关系型数据库的方式?
#9 @netabare
> 保证数据类型的一致性和准确性

楼上#5 早已道明
> 多个 view ,然后 view 通过一些叫做 trigger 的 hook 进行前置、后置处理吐给客户端

> 客户端前端进行数据检验和匹配

建议立即开始写阁下最痛恨的几百上千行的 PL/SQL T-SQL 存储结构

> rdbms 就是一个 serverless 的低代码平台。你只关心把一些 lambda 在一个界面提交给系统,不用关心他在哪里执行;
> sql 语言就是低代码语言;
> JOIN 就是 graphql

这下现代中台娱乐圈壬上壬们又梦回他们最痛恨的 80/90s COBOL 了
1  2  3  4  5  6  7  8  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   1967 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 20ms · UTC 01:20 · PVG 09:20 · LAX 18:20 · JFK 21:20
Developed with CodeLauncher
♥ Do have faith in what you're doing.