如影随形

影子是一个会撒谎的精灵,它在虚空中流浪和等待被发现之间;在存在与不存在之间....

您现在的位置是:主页 > 模板分享 > 作品 >

主编圈子

发布时间:2025-11-10 09:12编辑:BET356官网在线登录浏览(183)

    科技日报记者 张梦然 据最新一期《自然》杂志发表的研究显示,科学家建立了超过一万张人类图像的数据库,用于评估和纠正人工智能(AI)模型视野中的偏差。由索尼人工智能开发的“公平以人为中心的图像”(FHIBE)使用基于用户的数据集来准确分析以计算机为中心的视觉任务,以识别和纠正偏见和刻板印象。该团队认为这是迈向更值得信赖的人工智能的重要一步。计算机视觉广泛应用于自动驾驶汽车和面部识别等技术领域。计算机视觉中使用的许多人工智能模型都有可能在未经同意的情况下收集的训练数据,这些数据来自从网络上大规模抓取的图像。研究还发现,人工智能模型可能反映了延续性别歧视、种族主义或其他刻板印象的偏见。 这时,研究团队构建了一个形象图像,并采用了同意机制、多样性和隐私等许多方面的最佳实践。 Fhibe 包含来自 81 个国家和地区的 1,981 个人的 10,318 张图像。该数据库包括人口统计和身体特征的综合注释,包括年龄、代词类别、血统、头发颜色和肤色。参与者获得了有关项目和潜在风险的详细信息,以帮助他们做出知情同意,并且该过程遵循全面的数据保护法规。这些品质使我们成为人工智能偏见评估的可靠数据库来源。该团队将 FHIBE 与现有的 27 个以计算机为中心的计算机视觉应用数据集进行了比较,发现 FHIBE 数据集在 AI 分析的多样性和可靠一致性方面具有更高的标准。它还有效地减少了偏差,比其他数据集包含更多参与者表达的注释信息,并且包含很大一部分通常未注释的人群。这数据集可用于评估现有人工智能模型在计算机视觉任务中的性能,并可以揭示许多以前未知的偏差。然而,该团队也承认,当前的数据集创建过程既困难又昂贵。主编强调,这份报纸是最近才发表的,尽管已经发表了一些关于人工智能的偏见倾向及其无关性的相关报告。本文的研究是人工智能伦理建设的标杆实践。其主要价值在于将“公平”这一抽象原则转化为一套可操作的标准和经过验证的技术标准和工作流程。 AI偏见是行业的痼疾,但现在或许有一个标准的量尺,使得定量评估和比较不同模型的公平性成为可能,这将直接推动算法的发展和优化。虽然成本高导致推广难度大,但探索本身就是推动人工智能从单纯追求强绩效,成为值得人类信赖的合作伙伴的关键点。