
今年夏天,一位擁有近半個世紀經驗的巴洛阿圖律師向聯邦法官承認,他在一份重要的法庭文件中提到的法律案件實際上並不存在,似乎是人工智慧(AI)「幻覺」(hallucination)的產物。
聖荷西信使報(Mercury News)報導,律師魯索(Jack Russo)在法庭文件中稱,這種明顯的人工智能捏造對他來說是「第一次遇到」,「對此非常尷尬」。
身為電腦法律專家,魯索發現自己身處一個迅速壯大的律師群中,由於像ChatGPT這樣廣受歡迎但容易出錯的人工智慧技術,與嚴格的法律程序規則相衝突,令他們遭到公開羞辱。
幻覺,即人工智慧產生不準確或無意義的訊息,一直是生成式人工智慧的持續問題,自2022年底舊金山的OpenAI發布ChatGPT機器人以來,這個問題在矽谷掀起了一股熱潮。在法律領域,隨著律師紛紛湧向這項技術,人工智慧產生的錯誤也受到了越來越嚴格的審查。憤怒的法官們將此類錯誤提交給紀律部門處理。自2023年以來,美國已有數十起此類案件被處以高達3.1萬美元的罰款,其中包括上個月南加州一起創紀錄的1萬美元罰款。
聊天機器人利用大量資料來回應使用者的提示,並使用模式分析和複雜的猜測來得出結果。錯誤可能由多種原因造成,包括人工智慧訓練資料不足或有缺陷,或人工智慧的假設不正確。它不僅影響律師,也影響尋求資訊的普通人,例如Google去年的人工智慧概覽告訴用戶要吃石頭,並在披薩醬裡加膠水以防止起司滑落。
魯索告訴法官懷特(Jeffrey White),他對未能確保文件真實性負全部責任。他表示,由於年過70,長期處於新冠康復期,他不得不在沒有「充分監督協議」的情況下將任務委託給支援人員。
「不值得同情,」聖塔克拉拉大學網路法教授戈德曼(Eric Goldman)說,「每個律師都會講一些悲慘的故事,但我不會上當。有規定要求律師仔細檢查他們提交的內容。」
法官上個月在法庭命令中寫道,魯索捏造的人工智慧夢境對他來說也是第一次。魯索未能充分審查他提出的駁回合約糾紛案的動議,違反了聯邦法院的規定。法官尖銳地批評道,法院「必須將注意力從本案和其他案件的案情轉移到處理這個問題上」。
懷特發布初步命令,要求魯索支付對方部分律師費。魯索告訴懷特,他的律師事務所Computerlaw Group已「採取措施糾正並防止類似事件再次發生」。
魯索拒絕回答信使報的提問。
根據法國巴黎高等商學院高級研究員夏洛坦(Damien Charlotin)編制的數據庫,此類事件幾乎每天都在發生,甚至法官也受到了牽連。夏洛坦正在追蹤全球範圍內包含人工智慧幻覺的法律文件。
夏洛坦表示,他的資料庫中包含「數量驚人」的粗心、魯莽或「糟糕透頂」的律師。自2023年年中以來,美國有113起案件涉及律師提交含有幻覺資料(主要是法律案例引證)的申請,這些資料已成為法院判決的依據。他認為,許多涉及人工智慧捏造的法院申請從未被發現,可能會影響案件結果。
戈德曼說:「有些案件的風險非常高,如果有人扭曲法官的決策,整個系統就會崩潰。」
儘管如此,他表示,人工智慧對律師來說仍然是有用的工具,可以發現人們可能忽略的訊息,並幫助準備文件。 「如果人們明智地使用人工智慧,它就能幫助他們做得更好。」

聊天機器人利用大量資料來回應使用者的提示,並使用模式分析和複雜的猜測來得出結果。(路透)
後參與評論
暫無評論