时间:11/26/2025 00:00
浏览: 705
随着人工智慧(AI)失败的风险日益增加,主要保险公司正积极寻求将其对 AI 相关索赔的责任排除在外。根据《金融时报》的报导,AIG、WR Berkley 和 Great American 等保险公司已向监管机构申请新的政策排除条款,这将使他们能够拒绝与 AI 系统(包括聊天机器人和代理人)的使用或整合相关的索赔。
该举动正逢各行各业加速采用生成性工具的时期,这个转变已经导致了一些昂贵的错误。例如,Google因其AI概览功能错误地声称一家太阳能公司被州检察长起诉而面临1.1亿美元的诽谤诉讼;而加拿大航空则被要求承认其客户服务聊天机器人虚构的折扣。此外,英国工程公司Arup在一次视讯通话诈骗中因员工被数位复制的高层欺骗,而损失了2,000万英镑。
这些事件使得保险公司更难量化责任的起止点。Mosaic Insurance告诉《金融时报》,大型语言模型的输出仍然过於不可预测,无法进行传统的承保,并将其形容为「黑箱」。即使是专门为AI增强软体提供保险的Mosaic,也拒绝承保来自像ChatGPT这样的LLM的风险。
做为一种变通方案,WR Berkley的潜在排除条款将禁止与「任何实际或声称的使用」AI相关的索赔,即使该技术仅在产品或工作流程中占有微小部分。AIG告诉监管机构,它「没有计画立即实施」其提议的排除条款,但希望在索赔的频率和规模增加时能够使用这一选项。
问题不仅在於单一损失的严重性,还在於由单一基础模型或供应商引发的广泛、同时的损害威胁。Aon的网路部门负责人Kevin Kalinich表示,行业可以承受来自某一公司使用的失误代理人造成的4亿或5亿美元的损失,但无法承受一个上游故障同时产生千起损失的情况,这被他形容为「系统性、相关、聚合的风险」。
一些保险公司已透过政策附加条款朝着部分清晰迈进。QBE推出了一项扩展的附加条款,为欧盟AI法案下的罚款提供有限的保障,最高限额为保险限额的2.5%。Chubb则同意承保某些AI相关事件,同时排除任何可能影响「广泛」事件的情况。经纪人表示,这些附加条款必须仔细阅读,因为某些条款在看似提供新保障的同时,实际上减少了保护。
随着监管机构和保险公司重新调整其立场,企业可能会发现,部署AI的风险现在比他们预期的更重,可能会更重地落在他们自己的资产负债表上。
图片翻摄自网路,版权归原作者所有。如有侵权请联系我们,我们将及时处理。