Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Dlaczego Włosi walczą ze sztuczną inteligencją?

Niektórzy eksperci uważają, że postawa Włochów zainspiruje polityków innych państw UE do ponownego przyjrzenia się zasadom, na jakich działają rozwiązania oparte na sztucznej inteligencji.
.get_the_title().

Wszystko zaczęło się od aplikacji Replika. Jej założycielka, programistka Eugenia Kuyda, stworzyła chatbota, który pełni funkcję ‘towarzysza AI, któremu zależy na tym, aby cię wysłuchać, zrozumieć i porozmawiać, będąc zawsze po twojej stronie’. Uruchomiony w 2017 roku chatbot ma obecnie ponad dwa miliony aktywnych użytkowników.

Założycielka aplikacji twierdzi, że korzystają z niej zarówno dzieci z autyzmem, które traktują rozmowę z robotem jako ‘rozgrzewkę’ przed kontaktem z ludźmi, jak i dorośli, którzy są po prostu samotni i potrzebują rozmowy. Jest też grupa osób, która używa Repliki do ćwiczeń przed rozmowami kwalifikacyjnymi, by uzyskać porady małżeńskie lub porozmawiać o polityce.

Według Światowej Organizacji Zdrowia na świecie żyje prawie miliard osób z zaburzeniami psychicznymi. To więcej niż jedna osoba na 10.

Niestety tylko niewielka część potrzebujących ma dostęp do skutecznej, przystępnej cenowo i wysokiej jakości opieki psychiatrycznej. Oczywiście algorytmy sztucznej inteligencji nie zastąpią kontaktu z prawdziwym człowiekiem, ale w tej sytuacji rozmowa z chatbotem może okazać się lepszym rozwiązaniem niż brak jakiejkolwiek pomocy.

Unsplash.com

Niektóre osoby korzystające z Repliki zaczęły traktować chatbota jak sexbota.

We Włoszech stwierdzono, że aplikacja była używana przez osoby poniżej 18 roku życia, które otrzymywały odpowiedzi absolutnie nieodpowiednie dla ich wieku. Włosi uznali, że chatbot może niekorzystnie wpływać na osoby, które wciąż są na etapie rozwoju lub są wyjątkowo wrażliwe. W efekcie o firmie stojącej za aplikacją zaczęły rozpisywać się gazety i portale, aż ostatecznie zaktualizowała ona system sztucznej inteligencji, by zablokować możliwość przeprowadzania takich rozmów. Nie wszyscy użytkownicy byli zadowoleni ze zmiany.

Brytyjska działaczka na rzecz ochrony prywatności online, Jen Persson, twierdzi, że potrzebne są globalne regulacje dotyczące chatbotów-terapeutów. Produkty oparte na AI, które mają na celu wspieranie zdrowia psychicznego i wpływanie na stan emocjonalny, powinny być klasyfikowane jako produkty zdrowotne i podlegać odpowiednim normom jakości i bezpieczeństwa.

Unsplash.com

Włosi podobnie zareagowali również na ChatGPT. Kilka dni temu włoski organ ochrony danych ogłosił, że zablokował możliwość korzystania z czatu i wszczął dochodzenie w sprawie OpenAI. Powodem są obawy związane ze sposobem, w jaki firma przetwarza dane użytkowników. Obiekcje pojawiły się po tym, jak w marcu osoby korzystające z czatu mogły zobaczyć w swoim pasku historii fragmenty rozmów czy niektóre dane dotyczące kart kredytowych innych użytkowników.

Kolejnym powodem było nieprzestrzeganie przez OpenAI ogólnego rozporządzenia o ochronie danych (RODO).

Włosi stwierdzili, że nie ma podstaw prawnych uzasadniających masowe gromadzenie i przechowywanie danych osobowych w celu szkolenia algorytmów. Tamtejszy organ ochrony danych zdecydował, że OpenAI ma 20 dni na udowodnienie, że obawy Włochów są bezpodstawne. W przeciwnym razie firmie grozi kara grzywny w wysokości 20 mln euro lub do 4 proc. rocznych przychodów.

Unsplash.com

Prawnicy sądzą, że sprawa może mieć konsekwencje dla całej UE.

Już teraz irlandzka komisja ochrony danych przyznała, że współpracuje z włoskim organem regulacyjnym, aby zrozumieć podstawę jego działania i zapowiedziała, że ‘będzie koordynować działania ze wszystkimi unijnymi organami ochrony danych’. Niezależny brytyjski regulator danych powiedział, że będzie wspierał rozwój sztucznej inteligencji, ale jest też gotowy do kwestionowania niezgodności z przepisami o ochronie danych.

Chociaż UE pracuje obecnie nad pierwszymi na świecie przepisami dotyczącymi sztucznej inteligencji, Europejskie Centrum Konsumenckie (BEUC) obawia się, że miną lata, zanim taka ustawa wejdzie w życie. Ursula Pachl, zastępczyni dyrektora generalnego BEUC, twierdzi, że społeczeństwo obecnie nie jest wystarczająco chronione przed szkodami, jakie może wyrządzić AI. Dodaje, że rosną obawy co do tego, w jaki sposób ChatGPT i podobne chatboty mogą oszukiwać i manipulować ludźmi. W związku z tym te systemy sztucznej inteligencji wymagają większej kontroli władzy publicznej.

Tekst: MZ

FUTOPIA