NIST AI快讯列表 | Blockchain.News
AI 快讯列表

AI 快讯列表关于 NIST

时间 详情
2026-04-13
16:52
Meta内测扎克伯格AI分身:企业治理风险与2026年生成式AI部署要点分析

据X平台用户God of Prompt披露,疑似泄露的系统提示显示Meta正在为员工测试“扎克伯格AI分身”,基于“实时AI角色”框架,按身份、个性、履历、细节纹理与行为规则五层构建,以在非脚本对话中逼真模拟CEO(来源:God of Prompt,2026年4月13日)。同帖称,该框架包含AI身份披露与对话边界,表明Meta在探索高管仿生代理的安全边界;作者还将该提示泛化为可复用的“CEO分身模板”,预示企业在决策支持、领导力培训与入职问答的场景化需求正在上升(来源:God of Prompt)。从治理视角看,高管分身存在“幻觉指令”、合规责任与权限边界不清等风险;依据NIST AI风险管理框架与主流RLHF安全研究,常见缓解措施包括人类审批链、指令优先级与签名校验、审计日志、策略路由与模型卡披露(来源:NIST AI RMF 1.0;RLHF研究综述)。若实践有效,该路线可提升高管时间杠杆与企业知识获取效率,但必须配套“不可作为正式指令”的强提示、审批工单化、以及员工培训以避免误用(来源:God of Prompt与通行企业AI治理实践)。

2026-03-07
21:25
Timnit Gebru转发NPR报道:ICE事件折射AI监控风险与合规机会—实务分析与三大商业要点

据@timnitGebru在X平台转发的NPR报道,NPR仅以名为Emily的受访者讲述其在停车场遭遇ICE车辆的事件,引发对执法部门使用AI赋能的监控技术之合规与问责担忧。根据NPR,车牌自动识别、人脸识别与预测分析等工具在缺乏审计与治理时,可能放大偏见并降低透明度。结合NPR信息与@timnitGebru的关注,面向AI供应商的三项落地建议为:开展可验证的偏见测试与红队评估,建立可追溯的数据来源与用户选择机制,提供符合NIST AI风险管理框架的端到端合规文档,以满足政府采购与外部审计要求并降低责任暴露。