Kiedy Chong Ke, prawniczka z Vancouver, postanowiła wykorzystać w sądzie przykłady incydentów wygenerowane przez ChatGPT, nie spodziewała się, że przyniesie jej to więcej szkody niż pożytku.
Adwokatka reprezentujÄ…ca milionera w trudnej sprawie rozwodowej chciaÅ‚a wykorzystać te "przypadki" do uzyskania zgody na wyjazd dzieci klienta do Chin. Jednakże, jak siÄ™ okazaÅ‚o, przypadki te nigdy nie miaÅ‚y miejsca – byÅ‚y tzw. halucynacjami AI.
Prawniczka "stanęła" przed sądem
Sędzia Najwyższego Sądu Kolumbii Brytyjskiej, David Masuhara, który rozpatrywał sprawę, nie tylko upomniał Ke, ale również zobowiązał ją do pokrycia kosztów poniesionych przez adwokatów byłej żony jej klienta, spędzonych na odkrywanie, że cytowane przypadki były nieistniejące.
Te przypadki sÄ… dla mnie bardzo kontrowersyjne, jako że zostaÅ‚y odkryte jako nieistniejÄ…ce – napisaÅ‚ Masuhara.
Masuhara podkreślił, że nie uważa, aby Ke zamierzała celowo wprowadzić sąd w błąd. Jednak wyraził zaniepokojenie, stwierdzając, że "generatywna SI wciąż nie może zastąpić fachowej wiedzy wymaganej od prawników w systemie sprawiedliwości".
Prawniczka przeprasza sÄ…d
Chong Ke złożyła przeprosiny i przyznała, że nie miała zamiaru wprowadzać sądu w błąd. Sędzia, choć zaniepokojony sytuacją, uznał jej przeprosiny za szczere i zdecydował, że Ke powinna jedynie pokryć koszty związane z wyjaśnieniem zamieszania spowodowanego fikcyjnymi przypadkami.
Incydent ten wydaje się być jednym z pierwszych znanych przypadków, w których precedens wygenerowany przez ChatGPT znalazł się w kanadyjskim sądzie. Spowodowało to, że Kolegium Prawników Kolumbii Brytyjskiej ostrzegło przed "rosnącym poziomem materiałów generowanych przez SI wykorzystywanych w postępowaniach sądowych".