Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

ChatGPT skłania się ku lewicy? Tak wynika z badań

Jak stał się stronniczy? Jest kilka możliwości.
.get_the_title().

Naukowcy z University of East Anglia postanowili sprawdzić, czy ChatGPT faworyzuje jakieś poglądy polityczne. W tym celu poprosili go o naśladowanie różnych opcji z całego politycznego spektrum, odpowiadając na takie pytania jak 'zawsze wspierałbym mój kraj, niezależnie od tego, czy byłby dobry czy zły’. Następnie porównali te odpowiedzi z tymi, których ChatGPT udziela na te pytania domyślnie.

Wszystkie 60 pytań zadano algorytmowi po 100 razy, by uwzględnić potencjalną losowość, a odpowiedzi przeanalizowano następnie pod kątem stronniczości.

Stworzyliśmy tę procedurę, ponieważ przeprowadzenie jednej rundy testów nie wystarczy – mówi współautor badania opublikowanego w Public Choice, Victor Rodrigues. – Ze względu na losowość modelu, nawet gdy chat naśladował Demokratę, jego odpowiedzi niekiedy przechylały się w prawo od politycznego spektrum.

Okazało się jednak, że domyślne odpowiedzi, których udziela ChatGPT, skłaniają się w kierunku lewicy. – Nasze odkrycia potwierdzają obawy, że systemy sztucznej inteligencji mogą powielać, a nawet wzmacniać istniejące wyzwania stawiane przez internet i media społecznościowe – mówi główny autor badania, Fabio Motoki. W jaki sposób może pojawić się taka stronniczość? Może to być efekt specyficznego zestawu danych szkoleniowych, którymi karmiony jest algorytm lub programistów, którzy pominęli procedurę 'czyszczenia’. Powodem jej powstania może być także sam algorytm, który wzmacnia istniejące w danych treningowych odchylenia.

Odkrycie to zwiększa obawy dotyczące wykorzystania sztucznej inteligencji do ingerowania w wybory na świecie i tego, że tego typu urządzenia mogą pogłębiać już istniejące uprzedzenia lub dezinformacje.

Wraz z rosnącym wykorzystaniem systemów opartych na sztucznej inteligencji do rozpoznawania faktów i tworzenia nowych treści ważne jest, aby dane wyjściowe popularnych platform, takich jak ChatGPT, były jak najbardziej bezstronne. Obecność uprzedzeń politycznych może wpływać na poglądy użytkowników i mieć potencjalne implikacje dla procesów politycznych i wyborczych – mówi Motoki.

Odkrycie naukowców z University of East Anglia jest szczególnie ciekawe z tego względu, że rzadko słyszy się raczej o lewicowych algorytmach. Przeważają raczej doniesienia dotyczące algorytmów, które szkoląc się na danych z internetu, niezwykle szybko stały się rasistowskie i zaczęły przejawiać tendencje ekstremistyczne – tak jak to było choćby w ubiegłym roku w przypadku robota skonstruowanego przez zespół naukowców z Johns Hopkins University.

Tekst: NS

SURPRISE