在最近的纽约法庭案件中,一名专家证人在一起房地产纠纷中依赖微软(Microsoft)的Copilot聊天机器人来估计损失,这遭到了主审法官的批评。这只是法律专业人士和专家因依赖人工智能工具而感到尴尬的最新例子。
据Ars Technica报道,纽约法官乔纳森·肖普夫(Jonathan Schopf)呼吁人们注意专家证人使用人工智能工具(如微软的Copilot聊天机器人)在法庭案件中提供证词的潜在危险。这个问题是在一场涉及巴哈马一处价值48.5万美元的租赁房产的房地产纠纷中曝光的,该房产被包括在一名已故男子儿子的信托基金中。
该案围绕着死者的妹妹——遗嘱执行人和受托人展开,她被指控违反受托责任,拖延出售房产,同时将其用于个人度假。为了证明损害赔偿,尚在世的儿子的法律团队依靠专家证人查尔斯·兰森(Charles Ranson)计算了2008年潜在售价与2022年实际售价之间的差额。
然而,专门从事信托和房地产诉讼的Ranson缺乏相关的房地产专业知识。为了弥补这一点,他求助于人工智能副驾驶来协助他的计算。在他的证词中,Ranson无法回忆起他用来得出损失估计的具体提示,也无法引用他从聊天机器人那里获得的信息的任何来源。他还承认,自己对副驾驶的功能和输出的理解有限。尽管如此,Ranson还是坚定地为使用Copilot和其他人工智能工具起草专家报告进行了辩护,声称这是信托服务领域普遍接受的做法。
为了回应兰森的证词,肖普夫法官花时间亲自对副驾驶进行了试验,试图得出与兰森提供的相同的估计。然而,他发现聊天机器人每次给出的答案略有不同,即使是同样的问题。这种不一致引起了人们对法庭诉讼中copilot提供的证据的可靠性和准确性的担忧。
当法庭质疑autopilot的准确性和可靠性时,它回应说,在法庭上使用之前,它的输出应该始终得到专家的验证,并伴随着专业评估。这一观点得到了肖普夫法官的赞同,他指出,副驾驶的开发人员认识到,需要人工监督来验证输入信息和生成输出的准确性。
由于这起案件,Schopf法官呼吁律师披露在他们的案件中使用人工智能的情况,以防止聊天机器人产生的不可采信的证词扰乱法律体系。他强调,虽然人工智能在许多行业变得越来越普遍,但它的存在并不能自动使其结果在法庭上被采纳。
最终,法官Schopf认为在此案中没有违反信托义务,使得Ranson在copilot的协助下就损害作出的证词变得不必要。法官驳回了儿子的所有反对意见和未来的要求,指出兰森的证词缺乏彻底的分析,使用了错误的损害赔偿时间,并且没有考虑到他的计算中显而易见的因素。
本文来自作者[焉南绿]投稿,不代表杰星贝儿立场,如若转载,请注明出处:https://jilltissue.cn/zh/202411-1752.html
评论列表(4条)
我是杰星贝儿的签约作者“焉南绿”!
希望本篇文章《因AI聊天机器人证词,专家证人与纽约法官面临困境》能对你有所帮助!
本站[杰星贝儿]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育
本文概览:在最近的纽约法庭案件中,一名专家证人在一起房地产纠纷中依赖微软(Microsoft)的Copilot聊天机器人来估计损失,这遭到了主审法官的批评。这只是法律专业人士和专家因依赖...