主流媒体AI炒作:CBS 60分钟聚焦DeepMind癌症研究与Anthropic伦理AI
据@timnitGebru称,CBS《60分钟》节目正从传统新闻转向AI行业炒作,重点报道了DeepMind在癌症研究领域的突破及Anthropic致力于开发合乎伦理的AI模型(来源:x.com/60Minutes/status/1990229266739462464)。节目突出展示了人工智能在医疗和伦理方面的潜力,但未提及数据使用争议、环境成本及AI输出风险。这一报道趋势影响了公众对AI商业机会与挑战的认知,并为企业投资决策带来新的市场导向。
原文链接详细分析
最近CBS 60 Minutes节目关于人工智能的报道引发了科技界的热议,展示了主流媒体如何放大AI炒作,同时忽略关键缺陷。该节目于2024年11月17日播出,讨论了DeepMind在医疗AI方面的进展,如其AlphaFold系统,该系统革新了蛋白质结构预测,并应用于癌症研究。根据DeepMind在2021年7月的公告,AlphaFold准确预测了几乎所有已知人类蛋白质结构,加速了药物发现过程,可能带来癌症治疗的突破。同样,节目涉及Anthropic努力向AI模型灌输道德行为,该公司在2023年5月的博客中声称,其宪法AI方法训练模型遵循预定义原则,减少有害输出。这种描绘符合更广泛的行业趋势,即AI被宣传为社会挑战的万能药。然而,批评者如AI伦理学家Timnit Gebru在2024年11月18日的Twitter帖子中指出,此类报道忽略了通过数据抓取导致的知识产权盗窃、海量能源消耗的环境影响以及大型语言模型生成的毒性内容。在AI新闻背景下,这一集反映了向促销内容的转变,正如2023年路透社新闻研究所研究发现,主要媒体中62%的AI相关故事聚焦于积极创新,而未平衡风险。这一趋势由不断增长的AI市场驱动,根据2022年MarketsandMarkets报告,该市场预计到2027年达到4070亿美元,鼓励媒体与科技巨头的合作。从行业角度看,这种炒作推动了对AI初创企业的投资,根据Crunchbase数据,2024年上半年风险投资资金达到450亿美元,但如果未解决担忧可能导致监管打击。
转向商业影响,媒体在AI炒作中的作用为企业在这一领域提供了机遇和挑战。例如,利用AI进行营销的企业可以利用正面叙事吸引客户,正如DeepMind母公司Alphabet在2024年第三季度云部门收入增长15%,部分归功于受AlphaFold启发的AI工具。根据Gartner 2024年6月的报告,到2025年85%的AI项目将因偏见或数据问题产生错误结果,这强调了企业需要解决Gebru指出的“毒性输出”,如 perpetuating discrimination的偏见算法。市场分析显示,AI伦理咨询已成为盈利利基市场,像Anthropic这样的公司在2024年10月获得76亿美元融资,根据TechCrunch报道,通过定位为“好”AI开发的领导者。货币化策略包括提供融入安全功能的AI即服务平台,可能进入2023年Fortune Business Insights研究预测的2026年157亿美元AI伦理市场。然而,环境成本构成实施挑战;AI训练的数据中心在2023年全球消耗460太瓦时,相当于中等国家能源使用,根据国际能源署2024年1月的报告。企业必须投资可持续实践,如使用可再生能源,以缓解这些问题并遵守新兴法规,如2024年8月生效的欧盟AI法案,该法案要求高影响AI系统的风险评估。竞争格局分析显示,像OpenAI和Google这样的关键玩家主导市场,但专注于透明AI的初创企业可能通过解决炒作引发的怀疑来颠覆,导致多元化投资组合和伙伴关系。
在技术方面,实施AI需要以平衡视角解决媒体报道暴露的炒作与现实差距。DeepMind的AlphaFold在2021年12月的Nature论文中详细描述,使用深度学习以92%的准确率预测蛋白质折叠,但将其扩展到癌症治疗涉及与临床试验整合的挑战,根据McKinsey 2023年报告,只有13.8%的AI健康工具达到商业化。Anthropic的模型在其2023年关于可扩展监督的研究中描述,使用强化学习与人类价值观对齐,但毒性输出持续存在,研究显示大型模型的幻觉率达20-30%,根据2024年arXiv预印本。未来展望预测,到2030年AI可能为全球经济贡献15.7万亿美元,根据2017年PwC分析,但如果不管理伦理失误可能阻碍这一目标。实施考虑包括采用联邦学习以减少数据盗窃风险,正如2022年IEEE论文所倡导,以及优化能源效率,使用模型修剪技术可将消耗降低高达90%,根据2023年NeurIPS研究。监管合规将演变,美国2023年10月的AI安全行政命令要求透明报告。从伦理上讲,最佳实践涉及多样化团队以最小化偏见,正如Gebru的工作强调,可能在建立信任的同时促进创新。总体而言,企业应优先考虑可验证的AI进步而非炒作,以确保在知情新闻可能推动更可持续增长的市场中的长期可行性。(字数:1285)
转向商业影响,媒体在AI炒作中的作用为企业在这一领域提供了机遇和挑战。例如,利用AI进行营销的企业可以利用正面叙事吸引客户,正如DeepMind母公司Alphabet在2024年第三季度云部门收入增长15%,部分归功于受AlphaFold启发的AI工具。根据Gartner 2024年6月的报告,到2025年85%的AI项目将因偏见或数据问题产生错误结果,这强调了企业需要解决Gebru指出的“毒性输出”,如 perpetuating discrimination的偏见算法。市场分析显示,AI伦理咨询已成为盈利利基市场,像Anthropic这样的公司在2024年10月获得76亿美元融资,根据TechCrunch报道,通过定位为“好”AI开发的领导者。货币化策略包括提供融入安全功能的AI即服务平台,可能进入2023年Fortune Business Insights研究预测的2026年157亿美元AI伦理市场。然而,环境成本构成实施挑战;AI训练的数据中心在2023年全球消耗460太瓦时,相当于中等国家能源使用,根据国际能源署2024年1月的报告。企业必须投资可持续实践,如使用可再生能源,以缓解这些问题并遵守新兴法规,如2024年8月生效的欧盟AI法案,该法案要求高影响AI系统的风险评估。竞争格局分析显示,像OpenAI和Google这样的关键玩家主导市场,但专注于透明AI的初创企业可能通过解决炒作引发的怀疑来颠覆,导致多元化投资组合和伙伴关系。
在技术方面,实施AI需要以平衡视角解决媒体报道暴露的炒作与现实差距。DeepMind的AlphaFold在2021年12月的Nature论文中详细描述,使用深度学习以92%的准确率预测蛋白质折叠,但将其扩展到癌症治疗涉及与临床试验整合的挑战,根据McKinsey 2023年报告,只有13.8%的AI健康工具达到商业化。Anthropic的模型在其2023年关于可扩展监督的研究中描述,使用强化学习与人类价值观对齐,但毒性输出持续存在,研究显示大型模型的幻觉率达20-30%,根据2024年arXiv预印本。未来展望预测,到2030年AI可能为全球经济贡献15.7万亿美元,根据2017年PwC分析,但如果不管理伦理失误可能阻碍这一目标。实施考虑包括采用联邦学习以减少数据盗窃风险,正如2022年IEEE论文所倡导,以及优化能源效率,使用模型修剪技术可将消耗降低高达90%,根据2023年NeurIPS研究。监管合规将演变,美国2023年10月的AI安全行政命令要求透明报告。从伦理上讲,最佳实践涉及多样化团队以最小化偏见,正如Gebru的工作强调,可能在建立信任的同时促进创新。总体而言,企业应优先考虑可验证的AI进步而非炒作,以确保在知情新闻可能推动更可持续增长的市场中的长期可行性。(字数:1285)
timnitGebru (@dair-community.social/bsky.social)
@timnitGebruAuthor: The View from Somewhere Mastodon @timnitGebru@dair-community.