来源:蝌蚪五线谱 2025-11-11
摘要
如今,人工智能已广泛应用于自动驾驶、人脸识别等领域,但人们发现,许多AI模型在“看”世界时存在偏见,比如可能放大性别或种族的刻板印象。这往往是因为训练AI所用的数据本身存在缺陷——很多图片未经用户同意就从网上抓取,缺乏多样性和伦理约束。
为了构建更公平的AI,一支研究团队开发了一个名为FHIBE的新型图像数据库。这个数据库包含来自81个国家和地区的1万多名参与者的图像,所有图片均在获得充分知情同意的基础上采集,严格遵守数据隐私法规。每张图像都标注了年龄、肤色、血统等丰富信息,使数据库更具多样性和代表性,尤其涵盖了许多以往容易被忽略的人群。
FHIBE已成为评估AI是否存有偏见的可靠工具。通过与27个现有数据集比较,研究证明它在多样性和伦理标准方面表现更优,能够帮助识别并纠正以往难以察觉的AI偏见。尽管构建这样的高质量数据集成本高昂、过程复杂,但这一步对于推动人工智能走向更可信、更公平的未来至关重要。

图片来源:千库网