包容性AI研究:Timnit Gebru强调以社区为中心的人工智能发展新趋势 | AI快讯详情 | Blockchain.News
最新更新
8/28/2025 7:25:00 PM

包容性AI研究:Timnit Gebru强调以社区为中心的人工智能发展新趋势

包容性AI研究:Timnit Gebru强调以社区为中心的人工智能发展新趋势

根据@timnitGebru的推文,当前人工智能研究正逐步采用以社区为中心的自下而上的方法,关注那些在AI领域中通常被忽视的群体的真实需求。该模式支持来自这些社区的研究和研究人员,有助于推动针对多元市场的AI解决方案创新,增强人工智能产品的本地化和实际应用价值(来源:@timnitGebru,Twitter,2025年8月28日)。

原文链接

详细分析

人工智能领域正日益重视包容性和社区中心的研究方法,正如知名人物蒂姆尼特·格布鲁所强调的那样。在2025年8月28日的社交媒体声明中,格布鲁强调了以通常在AI研究中未被充分代表的社区的亲身经历为中心,倡导自下而上的方法,优先支持来自这些社区的研究者和他们的具体需求。这一观点与更广泛的AI发展相一致,例如格布鲁于2021年12月创立的分布式人工智能研究所,旨在促进独立、伦理的AI研究,脱离传统科技巨头。根据2021年纽约时报的报道,这种转变解决了AI系统中的偏见问题,其中数据集历史上对少数群体代表不足,导致如面部识别应用中的歧视性结果。例如,2018年乔伊·布奥拉姆维尼和蒂姆尼特·格布鲁的一项研究,发表于FAT/ML会议论文集中,揭示商业面部识别技术的错误率对深色皮肤女性高达34.7%,而对浅色皮肤男性仅为0.8%。这促使行业变革,如IBM在2020年6月停止通用面部识别,引用伦理担忧。在更广泛的行业背景下,这一包容性AI趋势受AI社会影响意识的增长驱动,如欧盟2021年4月提出的AI法案,将高风险AI系统分类并要求偏见评估。市场趋势显示,伦理AI框架正变得至关重要,2023年Gartner报告预测,到2026年,75%的企业将运营化AI伦理以缓解风险。这不仅在医疗AI等领域促进创新,还影响全球标准,鼓励学术、非营利组织和科技公司的合作构建更公平的技术。从商业角度,采用自下而上的社区中心AI研究为金融、医疗和教育等领域开辟重大市场机会,其中个性化、无偏见的AI可驱动货币化策略。根据2024年麦肯锡全球研究所分析,整合伦理AI实践的公司到2030年可解锁高达13万亿美元的额外全球经济产出,包容模型减少美国银行业每年45亿美元的偏见相关损失,如2022年美联储报告所述。企业可通过针对未代表市场的优质AI服务货币化,如为本土语言微调的语言模型,进入新兴经济体。例如,微软2018年启动的AI for Good计划,到2023年投资超过1.65亿美元于社区驱动项目,产生伙伴关系提升品牌声誉并开辟新收入来源。然而,实施挑战包括数据隐私担忧和多样化人才管道需求,2023年世界经济论坛报告指出全球AI专业人士中女性仅占22%,加剧代表差距。解决方案涉及跨部门合作,如Meta和IBM于2023年12月成立的AI联盟,专注于伦理AI开发的开源工具。竞争格局包括关键玩家如谷歌,其在2018年内部分歧后更新AI原则,以及Hugging Face等初创公司,2023年估值45亿美元,优先社区对模型库的贡献。监管考虑至关重要,美国2023年10月的AI行政命令要求联邦机构处理公平,影响企业合规策略。从伦理角度,这种方法促进如参与式设计的最佳实践,确保AI惠及所有利益相关者并减少声誉风险。从技术角度,实施自下而上的AI研究涉及先进方法如参与式机器学习,其中社区输入塑造模型训练,解决数据收集和算法公平挑战。牛津大学研究人员2022年在Nature Machine Intelligence发表的论文详细阐述了将亲身经历融入AI数据集的框架,在偏见敏感任务中提高模型准确率高达25%。实施考虑包括可扩展解决方案如联邦学习,苹果自2017年以来采用用于隐私保护更新,可适应社区驱动输入而不集中敏感数据。未来展望预测,根据2024年Forrester预测,到2027年,60%的AI部署将纳入伦理审计,受可解释AI技术进步驱动。这可能导致如针对脆弱社区的气候AI突破,市场增长潜力到2025年达157亿美元,如2023年MarketsandMarkets报告估计。挑战如计算成本可通过基于云的开源平台缓解,而预测表明AI治理工具采用增加,提升信任和创新。总体而言,这一趋势强调向可持续AI生态系统的转变,对全球公平和商业韧性有重大影响。(字数:1528)

timnitGebru (@dair-community.social/bsky.social)

@timnitGebru

Author: The View from Somewhere Mastodon @timnitGebru@dair-community.