当前位置:

让AI像人类一样“温故知新”:我国终身学习框架破解人群计数“健忘症”

AI的记忆革命

从“学一个忘一个”到“边学边复习”:AI的记忆革命
在商场的监控屏幕上,AI能精准数出客流(误差59.7人);可换到地铁站,误差突然飙到124.6人——这不是AI“偷懒”,而是它犯了“学新忘旧”的毛病。就像学生刚背会英语单词,转头就忘了数学公式,传统人群计数模型总在“学新场景”时“丢旧知识”。近日,我国学者在《Frontiers of Information Technology & Electronic Engineering》发表研究,提出FLCB(Forget Less, Count Better)终身学习框架,让AI学会“温故知新”:通过“复习笔记”式自蒸馏和“学习计划表”式平衡策略,跨场景计数误差降低15%,存储开销减少60%以上,给智慧城市装上“不健忘”的人流统计大脑。

传统AI的“三大记忆难题”
为啥AI总记不住旧知识?藏着三个“记忆坑”:

“黑板擦效应”:模型参数就像黑板,学新场景时会擦掉旧内容。比如用商场(SHA)和地铁站(SHB)数据依次训练,传统模型在地铁站误差能压到68.3人,回头测商场却从59.7人飙到124.6人,相当于“写新板书时,把旧板书擦得干干净净”。

“认生”难题:不同场景的人群分布差太远——商场明亮稀疏,火车站昏暗密集。单一场景训练的模型,到夜市、体育馆等新场景,准确率骤降40%,好比“只见过金毛的人,看到哈士奇就说不是狗”。

“背包太重”:要记多个场景,要么存所有数据(10个场景需10倍存储),要么训练10个独立模型(地铁站一个、商场一个),城市级部署时“模型比摄像头还多”,运维成本高到“用不起”。

FLCB框架:给AI配“记忆教练”
FLCB框架的核心,是让AI在学新知识时“主动复习旧知识”,靠两大机制实现“终身学习”:

1. “老师带学生”:旧模型当“复习导师”
训练新场景时,把旧场景训练好的模型当“老师”,当前模型当“学生”。“老师”会输出旧场景的“知识笔记”(特征层和输出数据),“学生”学新内容时必须模仿“老师”的输出——就像学生边学新课文边翻旧笔记,避免“学一个忘一个”。比如学地铁站场景时,“学生”模型会对照“老师”(商场训练模型)的计数逻辑调参数,确保旧知识不被覆盖。

2. “学习计划表”:平衡“学新”和“温故”
传统模型只盯着新场景的“考试分”(计数误差),FLCB加了“复习分”(自蒸馏损失),用超参数λ分配精力——λ=0.3时,30%时间复习旧知识,70%学新内容,就像“每日计划表”:背单词2小时,复习1小时,避免“只顾赶进度,忘了回头看”。

实测:遗忘度“清零”,跨场景误差降15%
在SHA、SHB等四个真实场景测试,FLCB交出亮眼成绩单:

“记忆加固”效果显著:用归一化反向迁移(nBwT,值越小遗忘越少)衡量,传统方法nBwT=0.371(严重遗忘),FLCB降到-0.010(接近“零遗忘”),部分场景甚至“越学越精”——SFANet模型在商场误差从85.4人降至69.4人。

“认路”能力变强:在没学过的JHU-Crowd++高密度场景,FLCB计数误差(MAE=84.8)低于联合训练(89.8)和传统终身学习(90.4),尤其在春运地铁站等遮挡严重场景,准确率比传统模型高15%。

“减负”效果明显:不用存历史数据,单模型搞定多场景,存储开销降60%,训练时间短20%——相当于“从背10本课本上学,变成带1本笔记本轻装上阵”。

从疫情防控到智慧城市:AI“记忆大师”的应用版图
FLCB已在多场景落地:

疫情防控:小区、商场动态学习,人群聚集预警误差≤10人,避免传统模型“换场景就失灵”;
合成数据训练:在GCC合成数据集上训练后,对真实场景(如ShanghaiTech PartB)泛化误差16.1,优于CycleGAN(19.9),解决数据隐私和标注贵难题。
目前,团队正优化极端场景(1人或2万人以上)计数精度,未来结合自监督学习,让AI在演唱会、体育场馆也能“数得准”。


或许不久后,智慧城市的AI“计数员”会像老交警一样,无论晴天雨天、人多人少,都能“温故知新”,再也不犯“健忘症”。

来源: 信息与电子工程前沿FITEE


152688
让AI像人类一样“温故知新”:我国终身学习框架破解人群计数“健忘症”
1119
每日蝌普
新闻
信息与电子工程前沿FITEE
2025-10-20