现在没有出现强人工智能,但是有强智能的人类可以参考。
一个碱基对有 4 中可能,计算机的一个位有 0 ,1 两种可能。
32 亿碱基对就算全是有效信息也就
32 亿×2/8/1024/1024 = 762.94MB
其中人的 DNA 有效基因不会超过 10%,有很多没表达的基因
762.94×10% = 76.294 MB
还有 DNA 翻译成蛋白质会造成信息的损失(要 3 个碱基对确定 20 个氨基酸构成蛋白质)
76.294×log64 ( 20 ) = 54.96MB
人和大猩猩基因相似度大约 98.8%,粗略的将差异的 1.2%当成导致智能差异的基因,估计人智能所需的信息量只有
54.96*1.2% = 0.65952MB
计算和实际的误差应该挺大的,但是数量级差不多了。
为什么这么小的信息量现在还无法在计算机中模拟出强人工智能?难道瓶颈在显存和算力而不是算法上?
假设一滴水的水分子只有像 0 和 1 的两种状态数据量就达到了,
1.67 * Math.pow(10,21)/8/1024/1024/1024/1024 = 189857019 TB
还有现实中的数据大多是连续的无理数,而计算机只能进行离散的有理数进行存储计算导致丢失精度。
所以还是要堆存储算力或者改计算机的底层设计(像量子计算机)才可能实现强人工智能吗?
一个碱基对有 4 中可能,计算机的一个位有 0 ,1 两种可能。
32 亿碱基对就算全是有效信息也就
32 亿×2/8/1024/1024 = 762.94MB
其中人的 DNA 有效基因不会超过 10%,有很多没表达的基因
762.94×10% = 76.294 MB
还有 DNA 翻译成蛋白质会造成信息的损失(要 3 个碱基对确定 20 个氨基酸构成蛋白质)
76.294×log64 ( 20 ) = 54.96MB
人和大猩猩基因相似度大约 98.8%,粗略的将差异的 1.2%当成导致智能差异的基因,估计人智能所需的信息量只有
54.96*1.2% = 0.65952MB
计算和实际的误差应该挺大的,但是数量级差不多了。
为什么这么小的信息量现在还无法在计算机中模拟出强人工智能?难道瓶颈在显存和算力而不是算法上?
假设一滴水的水分子只有像 0 和 1 的两种状态数据量就达到了,
1.67 * Math.pow(10,21)/8/1024/1024/1024/1024 = 189857019 TB
还有现实中的数据大多是连续的无理数,而计算机只能进行离散的有理数进行存储计算导致丢失精度。
所以还是要堆存储算力或者改计算机的底层设计(像量子计算机)才可能实现强人工智能吗?