AIC 是 Akaike Information Criterion(赤池信息准则) 的缩写,常用于统计学与机器学习中的模型选择:在兼顾模型拟合程度与复杂度的前提下,帮助比较多个候选模型,通常 AIC 越小越好。(在不同领域里,AIC 也可能代表其他缩写。)
/ˌeɪ aɪ ˈsiː/
We compared the models using AIC and chose the one with the lowest score.
我们用 AIC 比较了这些模型,并选择了分数最低的那个。
Although the complex model fits the data better, its AIC is higher because it uses too many parameters.
虽然复杂模型对数据拟合更好,但由于使用了过多参数,它的 AIC 反而更高。
AIC 来自日本统计学家 Hirotugu Akaike(赤池弘次) 提出的模型评估方法名称首字母缩写;“Information Criterion(信息准则)”指用信息量与惩罚项来平衡“拟合好坏”和“模型复杂度”。