法律AI應用頻出包 全球律師逾千件錯誤資訊遭懲

7a7af81e e359 465d 8e53 af875f003c8b

全球法律界正因律師使用AI工具生成錯誤法律文件而面臨一波懲處潮,夏洛丁研究員統計已逾1,200起案例,包括虛構判例導致高額罰款;專家呼籲確保AI資訊準確性並加強倫理規範,同時OpenAI也因「無照執業」遭日本生命美國公司提告。

隨著人工智慧(AI)技術逐漸滲透法律領域,全球多地法院對律師提交含有AI生成錯誤資訊的法律文件,祭出懲處的案件數量正快速攀升,凸顯AI應用在法律實務中面臨的嚴峻倫理與準確性挑戰。

根據巴黎高等商學院(HEC Paris)研究員達米安·夏洛丁(Damien Charlotin)的統計,截至目前,全球已有超過1,200起因使用AI生成錯誤資訊而遭法院懲處的案例,其中約800起發生在美國。華盛頓大學法學院(University of Washington School of Law)圖書館主任卡拉·韋爾(Carla Wale)指出,儘管AI倫理規範尚未完全確立,但律師的首要責任仍是確保其提交文件的準確性。

近年來,多起律師因AI生成錯誤而受罰的事件浮上檯面。例如,美國寢具公司MyPillow執行長麥克·林戴爾(Mike Lindell)的代表律師,便因提交含有虛構AI生成判例的訴狀,遭處以每人3,000美元罰款。去年三月,奧勒岡州一名律師更因文件中的AI錯誤,被聯邦法院判處高達109,700美元的罰款及相關費用。

此外,美國法庭也出現多起類似窘境。今年二月,內布拉斯加州最高法院就曾針對奧馬哈律師葛瑞格·雷克(Greg Lake)提交的虛構判例文件進行審問,雖他否認使用AI,但仍被移送懲戒。三月,喬治亞州最高法院也上演了類似情景,顯示AI生成的錯誤資訊已成為司法實務中普遍存在的問題。

法律科技網站《Above the Law》資深編輯喬·派翠斯(Joe Patrice)肯定AI在證據審查、判例分析和合約處理上的效率,但也對「代理式」AI系統(Agentic AI systems)表達擔憂,認為這類系統試圖從頭到尾執行法律任務,可能導致人為監督的不足。他預測,AI工具將加速法律工作,挑戰傳統律師事務所按時計費的商業模式,促使律師轉向逐項計費。

針對未來發展,韋爾與派翠斯均對律師分析能力可能受侵蝕表示擔憂,但韋爾並不認為AI將完全取代人類律師,而是「懂得有效率且合乎倫理地使用生成式AI的律師,將會取代那些不懂得使用的律師」。此言也為台灣等考慮引進AI工具的司法體系敲響警鐘,提醒在追求效率的同時,務必將資訊準確性和倫理規範置於首位,避免觸犯法律規範,引發懲戒風險。

值得關注的是,AI技術供應商也因此面臨法律訴訟。今年三月,日本生命美國公司(Nippon Life Insurance Company of America)在伊利諾州聯邦法院對ChatGPT開發商OpenAI提起訴訟,指控OpenAI因提供錯誤法律建議導致該保險公司面臨不必要的法律行動,等同於「無照執業」。OpenAI則回應稱該訴訟「毫無根據」。

7a7af81e e359 465d 8e53 af875f003c8b
想讓品牌在新聞媒體曝光? 立即點我加入官方LINE@免費諮詢

相關新聞

最新消息