Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Unia Europejska chce regulacji AI. Dlaczego to dobry pomysł?

Algorytmy nie zawsze są bezstronne, tymczasem odgrywają w naszym życiu coraz większą rolę. Dlatego konieczne są regulacje.

Termin sztuczna inteligencja’ wzbudza niekiedy niepokój. Przed oczami stają obrazy rodem z filmów science-fiction – roboty przejmujące kontrolę nad światem czy komputer HAL 9000 z '2001: Odysei kosmicznej’ Stanleya Kubricka. Tymczasem już teraz sztuczna inteligencja jest wykorzystywana niemal we wszystkich dziedzinach naszego życia. Tylko że stosowniejszą nazwą byłyby algorytmy – a je już trudno podejrzewać o chęć dominacji nad ludźmi. Cały szkopuł tkwi bowiem w samym słowie 'inteligencja’. ’Inteligencja to zdolność rozwiązywania problemów. Świadomość to zdolność odczuwania takich stanów, jak ból, radość, miłość i złość. Na ogół mylimy te dwa pojęcia, ponieważ u ludzi oraz innych ssaków inteligencja idzie w parze ze świadomością. Ssaki rozwiązują większość problemów dzięki odczuwaniu różnych rzeczy. Komputery rozwiązują problemy w zupełnie inny sposób’ – tłumaczy Yuval Noah Harari w książce ’21 lekcji na XXI wiek’.

W 2018 roku SAS Software przeprowadziło badania, z których wynika, że aż 72 proc. organizacji na całym świecie wykorzystuje AI w jednym lub kilku obszarach swej działalności biznesowej.

Gdzie więc wykorzystywane są algorytmy? Stykamy się z nimi w internecie, gdy wyświetlają nam się reklamy, szukamy czegoś w Google albo robimy zakupy czy korzystamy z wirtualnych asystentów. Internet rzeczy także w dużym stopniu opiera się na AI. Autonomiczne samochody, drony, zautomatyzowane rolnictwo, medycyna, ochrona, a nawet… dziennikarstwo – we wszystkich tych dziedzinach i szeregu innych znajduje zastosowanie sztuczna inteligencja. Już teraz korzystamy z niej więc, często nawet o tym nie wiedząc. A w przyszłości technologii opartych na algorytmach będzie tylko więcej. I dobrze, bo naprawdę usprawniają one działania w wielu sferach. Z drugiej jednak strony, jako że technologia jest stosunkowo nowa, jeśli chodzi o regulacje AI, mamy teraz trochę Dziki Zachód. Tymczasem sztuczna inteligencja to nie tylko szanse, ale także zagrożenia.

'Zakodowane uprzedzenia' stanowią poważny problem.

Ciemne strony AI

Często uważamy, że algorytmy nie mogą się mylić – w końcu tylko analizują dane, nie mają własnej agendy czy poglądów. Tymczasem jak najbardziej mogą być rasistowskie, homofobiczne czy seksistowskie.

W algorytmach jest wiele ‘zakodowanych uprzedzeń’. Na przykład technologia rozpoznawania twarzy może mieć problem z identyfikowaniem osób o innym kolorze skóry niż biały lub dyskryminować kobiety. Na tym jednak nie koniec. Sztuczna inteligencja może nie dać wam pracy – jako że algorytmy coraz częściej uczestniczą w procesie rekrutacyjnym. Albo wyrzucić was z mieszkania. Albo sprawić, że zostaniecie aresztowani, bo system błędnie was zidentyfikował, bazując wyłącznie na waszym kolorze skóry?

Rzecz jasna algorytmy nie robią tego rozmyślnie. Są tylko tak dobre, jak ludzie, którzy je stworzyli. A w przeszłości pracowali nad nimi niemal wyłącznie biali mężczyźni gdzieś w Dolinie Krzemowej. I nawet jeśli niekoniecznie mieli oni złe zamiary, to brak reprezentacji osób innych płci, o innych kolorach skóry, z innym backgroundem, owocuje brakiem innej perspektywy. A to rodzi problemy. Do tego niekiedy nawet trudno się połapać, że one istnieją – użytkownicy programów opartych na algorytmach często nie wiedzą, w jaki sposób one działają i dlaczego podejmują takie, a nie inne decyzje. Na szczęście coraz częściej zauważamy, że te 'zakodowanie uprzedzenia’ faktycznie istnieją, więc problem nierzadko da się zlikwidować już na początku drogi danego algorytmu. Oczywiście, jeśli się chce go zlikwidować.

Photo by CHUTTERSNAP on Unsplash.com

Image

Aleksandra Przegalińska

filozofka i futurolożka

Obecnie wszędzie szukamy większej reprezentacji. Dziś wiemy, że budując systemy sztucznej inteligencji tworzone przez młodych mężczyzn dla młodych mężczyzn i w całości procesu realizowane przez młodych mężczyzn, do kogoś się nie dociera, kogoś się wyklucza. To się po prostu nie opłaca. Jestem przekonana, że ludzie z różnym backgroundem zadadzą sztucznej inteligencji różne zadania, postawią różne pytania, będą mieli różne koncepcje na swoje pola badawcze, zastosują inne metodologie, co innego będą chcieli zweryfikować. I wierzę w tak rozumianą różnorodność.

'Wysoce autonomiczne systemy SI powinny być zaprojektowane w taki sposób, by ich cele i sposób działania były zgodne z wartościami wyznawanymi przez ludzi' – mówi jedna z 'Zasad z Asimolar'.

Przyszłość AI nie napawa optymizmem

Nie ulega wątpliwości, że w najbliższych dekadach sztuczna inteligencja będzie się dynamicznie rozwijać, zagarniając kolejne dziedziny naszego życia. Niestety nawet ci, którzy nie utożsamiają AI z krwiożerczymi robotami, bo wiedzą, 'z czym to się je’, nie mają złudzeń. W 2016 roku nieżyjący już fizyk Steven Hawking wyraźnie opowiedział się za regulacjami w dziedzinie sztucznej inteligencji. – Superinteligentna AI będzie świetnie radzić sobie z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem – mówił. – Domyślam się, że nie jest pan kimś, kto nienawidzi mrówek i depcze je w ataku złości, kiedy tylko ma ku temu okazję. Ale wyobraźmy sobie, że jest pan odpowiedzialny za zbudowanie hydroelektrowni i w miejscu, które ma być zalane wodą, znajduje się kolonia mrówek – cóż, mrówki mają pecha. Nie powinniśmy doprowadzić do tego, by ludzie byli takimi mrówkami.

Hawkingowi wtórował znany AI-sceptyk Elon Musk, który w 2017 roku podkreślał, że sztuczna inteligencja może stanowić pewne ryzyko dla cywilizacji, a jej rozwój powinien być uregulowany prawnie, przy okazji dowalając na Twitterze Markowi Zuckerbergowi, który jego zdaniem ma 'ograniczone rozumienie sztucznej inteligencji’. W 2017 roku grupa innowatorów, w której znaleźli się Musk i Hawking, stworzyła ’Zasady z Asimolar’, czyli kodeks postępowania przy rozwoju AI, który składa się z 23 punktów i skupia się nie tylko badaniach, ale także na kwestiach etycznych.

Yuval Noah Harari jest z kolei zdania, że sztuczna inteligencja to jeden z najważniejszych problemów, przed jakim stoimy jako ludzkość. Historyk sądzi, że powinniśmy brać to zagadnienie pod uwagę nawet wtedy, gdy wybieramy polityków. – Zapytaj ich, co zrobią, aby zmniejszyć niebezpieczeństwo wojny nuklearnej, zmian klimatycznych, uregulować sztuczną inteligencję i bioinżynierię oraz ich wizję ludzkości w 2050 roku. A jeśli nie odpowiedzą, ale będą mówić o przeszłości, to nie głosuj na nich – powiedział. W tym kontekście z pewnością pocieszający jest fakt, że Unia Europejska nie jest obojętna.

Photo by Possessed Photography on Unsplash.com

Algorytmy często decydują o naszym życiu. Komisja Europejska sądzi, że w tych sprawach ostatnie zdanie powinien mieć człowiek.

Jak brzmi propozycja regulacji UE?

W styczniu tego roku 62 organizacje, w tym Europejska Koalicja na Rzecz Praw Cyfrowych, Amnesty Internetional czy polska Fundacja Panoptykon, zaapelowały do Komisji Europejskiej o zakaz wykorzystywania w Unii Europejskiej sztucznej inteligencji, która ogranicza prawa człowieka, na przykład inwigilując i przetwarzając dane biometryczne obywateli. Podkreślały, że AI coraz częściej wykorzystywana jest w urzędach granicznych i przy kontrolach migracyjnych. ’Unijna polityka migracyjna coraz bardziej opiera się na systemach sztucznej inteligencji, takich jak rozpoznawanie twarzy, wykorzystywanie algorytmów przy tworzeniu profili imigrantów czy jako narzędzia prognostyczne w procesach zarządzania migracjami, w tym planowania przymusowych deportacji. Taki przypadki użycia technologii mogą naruszać prawo do ochrony danych, prywatności, prawo do niedyskryminacji oraz kilka zasad międzynarodowego prawa migracyjnego, w tym prawo do ubiegania się o azyl’ – czytamy w liście.

Komisja Europejska ma na szczęście świadomość, że regulacje w dziedzinie sztucznej inteligencji są konieczne – pracowała nad nimi przez 3 lata i 21 kwietnia przedstawiła projekt. Sztuczna inteligencja podzielona została na cztery kategorie ryzyka, które zostały wpisane w piramidę. Najgroźniejszą i zarazem najmniej liczną grupą są technologie, które manipulują człowiekiem – i to właśnie one zostaną całkowicie zakazane.

Mniej liczna, ale równie niebezpieczna jest grupa druga, czyli algorytmy, które decydują o naszym życiu: przeglądają aplikacje o pracę, podania na studia, oceniają zdolność kredytową, decydują o tym, czy dostaniemy zasiłek, azyl polityczny lub wizę, są wykorzystywane w medycynie i sądownictwie. W tym przypadku zadecydowano, że maszyna nie może mieć ostatniego słowa: nad procesem powinien czuwać człowiek, a od decyzji algorytmu będzie można się odwołać. Taka technologia będzie także musiała spełnić określone wymogi, aby na przykład wyeliminować 'zakodowane uprzedzenia’, o których pisaliśmy powyżej. Trzecia grupa, czyli grupa ograniczonego ryzyka, to chatboty czy deepfake – w ich przypadku firmy będą musiały działać transparentnie, informując użytkowników, że nie mają do czynienia z prawdziwą osobą. Na samym dole piramidy znajdują się najmniej groźne przejawy AI, które nie potrzebują dodatkowych regulacji – wśród nich są na przykład filtry, które wyłapują spam.

Jednocześnie Unia Europejska zamierza wspierać takie projekty jak stosowanie sztucznej inteligencji w służbie walki ze zmianami klimatycznymi czy w celu usprawnienia procesu produkcji. Nowe przepisy miałyby w tym samym stopniu dotyczyć wszystkich unijnych państw, a także zagranicznych firm działających na terenie UE. Za niedostosowanie się do nich planowane są kary w wysokości nawet 20 mln euro lub 4 proc. rocznych obrotów. Przestrzegania tych przepisów miałaby pilnować specjalnie stworzona Europejska Rada ds. Sztucznej Inteligencji.

Photo by Christian Wiediger on Unsplash.com

Image

Thierry Breton

komisarz UE ds. rynku wewnętrznego

Nie zamierzamy zakazywać samej technologii, ale uregulować jej wykorzystanie.

Regulacja AI na świecie

Projekt Komisji Europejskiej jest absolutnie pionierski. Dotąd jeszcze nikt nie wprowadził regulacji sztucznej inteligencji na taką skalę. – Dzięki nim UE obejmuje pozycję lidera w dziedzinie opracowywania nowych, globalnych norm – komentuje komisarz UE ds. cyfryzacji Marghrete Vestager. Nie jest jednak tak, że nikt wcześniej nie zajął się algorytmami. W grudniu 2019 roku Nowy Jork chciał wprowadzić stosowne regulacje. Projekt zakończył się jednak spektakularną porażką – okazało się, że grupa pracująca nad tym przez 1,5 roku miała problem nawet z ustaleniem wspólnej definicji AI (szerzej pisaliśmy o tym tutaj). Jednak kilka amerykańskich miast poradziło sobie z tym zagadnieniem znacznie lepiej.

W ubiegłym roku m.in. w Portland, Oakland, San Francisco i Somerville udało się zakazać technologii rozpoznawania twarzy.

Nie może jej stosować ani policja, ani urzędy, banki, restauracje, dworce, noclegownie dla bezdomnych czy domy opieki. To efekt rosnącej świadomości na temat 'zakodowanych uprzedzeń’, wpisanego w technologię rasizmu i dyskryminacji. Zmiany postępują powoli, ale można już mieć nadzieję, że niedługo ten algorytmowy Dziki Zachód dobiegnie końca.

Zdjęcie główne: Possessed Photography/Unsplash.com
Tekst: NS

FUTOPIA