美国政府问责局(GAO)於3月26日发布报告指出,白宫管理及预算办公室(OMB)为联邦政府加速采用人工智慧(AI)技术所发布的指导方针,未能充分解决关键的隐私风险,这可能导致各机构在处理敏感资料时面临外泄的潜在危机。
GAO召集专家小组讨论政府AI实施情况后得出结论,OMB的AI指南并未全面涵盖所有主要的隐私相关风险与挑战。专家们警告,使用AI可能揭露原始数据集中的敏感资讯,进而暴露个人及私人资料。此外,联邦机构在应对AI隐私风险时面临技术限制,缺乏具备适当隐私保护的AI技术,以及在为保护隐私而调整或移除资料时,可能导致AI效能下降的权衡问题。
GAO向OMB提出两项建议,但OMB未对此发表评论。第一项建议要求OMB明确列举已知的隐私相关风险案例,供各机构更新政策时参考。第二项建议则呼吁OMB发布政府范围的指导方针,阐明各机构应如何考量隐私,包括评估和审计含敏感资讯的AI模型、储存资料以区分敏感资讯、开发具明确隐私规则的内部AI解决方案、使用AI隐私影响的绩效指标、确保公众理解与AI技术互动时的同意权、利用技术工具保护AI中的敏感资料、将AI特定考量纳入隐私影响评估,以及权衡隐私与AI效能的潜在冲突。GAO认为,若缺乏这些额外指导,各机构使用AI时披露敏感数据或损害隐私的风险将会增加。
除了政府层级的规范,企业界也面临严峻的AI隐私挑战。在RSA Conference 2026会议上,「影子AI」被视为超越过去「影子IT」的重大企业风险,恐导致资料泄漏、法规遵循问题及巨额罚款。例如,欧洲联盟的《人工智慧法案》(AI Act)已规定最高3500万欧元的罚款。业界不乏实例:一家医疗保健公司因将病患资料输入ChatGPT,违反《健康保险流通与责任法案》(HIPAA),被罚款350万美元;一家制造商也曾因程式码助手泄漏专有资料而损失5400万美元。针对这些风险,网路资安公司Fortinet(飞塔)正将网路与安全营运整合至单一平台,并在其FortiOS 8.0版本中引入超过21个AI代理程式与代理架构,以提供统一的可视性与控制力。
人工智慧的应用同时也冲击了法律领域的隐私保障。美国纽约南区地方法院於2026年2月审理的「美国诉Heppner案」中,一名刑事被告因使用公众生成式AI(GAI)平台探讨其辩护策略,导致其律师与客户间的特权(attorney-client privilege)被视为放弃。法院裁定,由於被告的律师并未指示他使用该GAI平台,且被告对其与GAI平台的互动没有合理的隐私期望,因此特权不成立。法庭指出,公众GAI平台的服务条款与隐私政策通常允许资料被储存、人工审阅,甚至用於训练模型或应政府要求提供给第三方。此判例凸显律师和客户在使用AI工具时,应特别注意其隐私条款,并确保任何敏感资讯的交流符合保密原则,律师也应在委任函中明确告知AI使用的相关风险,并取得客户的知情同意,必要时可考虑使用封闭且专为法律训练的GAI平台以确保隐私。