Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Sędziowie w UK mogą używać ChatuGPT do pisania orzeczeń prawnych

We wrześniu przyznał się do tego pierwszy sędzia.
.get_the_title().

Według raportu, który 12 grudnia ukazał się w The Daily Telegraph, sędziowie w Anglii i Walii mogą korzystać z ChatuGPT do pisania orzeczeń prawnych. To oficjalne zalecenie wydało niedawno brytyjskie Biuro Sądownictwa. Pojawiły się ostrzeżenia sugerujące, że sztuczna inteligencja może ‘wymyślać’ sytuacje czy sprawy, które nigdy nie miały miejsca. Mimo to, tysiące sędziów może korzystać z AI m.in. do tworzenia podsumowań dużych ilości tekstu, pisania e-maili oraz decyzji sądu w danej sprawie. Sędziowie nie mogą jednak przy użyciu ChatuGPT przeprowadzać badań czy analiz prawnych.

Sędziom zalecono, aby nie podawali prywatnych informacji chatbotowi, ponieważ mogłyby one trafić do domeny publicznej.

Co więcej, w wytycznych można znaleźć ostrzeżenie, że pojawienie się botów, takich jak ChatGPT, może oznaczać, że będą one często wykorzystywane przez obywateli podczas wnoszenia spraw sądowych. Może to skutkować również wykorzystaniem technologii deepfake do tworzenia fałszywych dowodów.

Unsplash.com

Wykorzystanie sztucznej inteligencji w prawie jest już stosunkowo powszechne. Niestety kilkukrotnie miało negatywne konsekwencje. Na początku tego roku jeden z amerykańskich prawników powoływał się na fałszywe sprawy, które wygenerowała mu AI, a konkretnie ChatGPT. Kancelaria, dla której pracował, została ukarana grzywną w wysokości 5 tys. dolarów. Z kolei kilka miesięcy temu pewna kobieta, zamiast zatrudnić prawnika, wykorzystała do reprezentowania siebie właśnie sztuczną inteligencję. To ChatGPT napisał odwołanie od decyzji nałożenia na nią przez sąd kary grzywny. Kobieta przegrała sprawę po tym, jak wyszło na jaw, że dziewięć spraw, które przytoczyła w swojej obronie, było wymyślonych.

ChatGPT może być bardzo przydatnym narzędziem dla sędziów, ale również niebezpiecznym.

Eksperci zajmujący się bezpieczeństwem cybernetycznym ostrzegają, że wzrost wykorzystania sztucznej inteligencji w orzeczeniach prawnych ma również swoje minusy. Hakerzy wykazali się już biegłością w infiltrowaniu i wykorzystywaniu luk w zabezpieczeniach w celu kradzieży danych. Scenariusz ten może również prowadzić do powszechnego fałszowania dowodów. Bardzo ważne jest, aby organizacje korzystające z tej technologii postępowały bardzo ostrożnie i korzystały z systemów bezpieczeństwa.

Tekst: MZ

FUTOPIA