Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Spersonalizowane reklamy izolują nas i dzielą, nawet jeśli nie są polityczne

Już od dawna wiadomo, że spersonalizowane treści w mediach społecznościowych nasilają polaryzację społeczeństwa. Dodatkowo tworzą zamknięte bańki, które zwiększają skalę obiegu szkodliwej dezinformacji.
.get_the_title().

4 lata temu ujawniono, że Cambridge Analytica wykorzystała dane zebrane z 87 mln profili na Facebooku bez zgody użytkowników. Firma zrobiła to, aby pomóc kampanii wyborczej Donalda Trumpa w 2016 roku poprzez skierowanie odpowiednich reklam online do kluczowych wyborców. Za sprawą tej sytuacji wiele osób zrozumiało jak potężną machiną mogą być media społecznościowe. Jednak zdecydowana większość reklam wyświetlanych w internecie ma charakter komercyjny, a nie polityczny. Spersonalizowana reklama komercyjna jest głównym źródłem przychodów w gospodarce internetowej, ale niewiele wiemy o tym, jak na nas wpływa. Wiemy, że nasze dane osobowe są gromadzone głównie ze względu na te reklamy, niejednokrotnie naruszając naszą prywatność.

Szkodliwe treści dotyczą zarówno reklam ogólnodostępnych, np. zewnętrznych, ale też tych spersonalizowanych.

W przypadku tych drugich nie bardzo mamy nawet możliwość jakkolwiek zareagować i się im sprzeciwić. Izolują nas od opinii innych, a organy regulacyjne nie są nas w stanie chronić przed reklamami internetowymi, które mogą nam wyrządzić krzywdę. Po prostu nie są w stanie sprawdzić każdej kampanii. Dlatego coraz częściej to algorytmy uczenia maszynowego przesiewają treści reklam, przewidując prawdopodobieństwo tego, czy mogą być szkodliwe lub nie spełniać standardów. Te przewidywania bywają jednak stronnicze i zazwyczaj zakazują tylko najbardziej wyraźnych naruszeń. Spośród wielu reklam, które przechodzą te kontrole, znaczna część nadal zawiera potencjalnie szkodliwe treści. Znacznie łatwiej wyłapać je w reklamach, do których mają dostęp wszyscy.

Dr Miranda Fay Thomas/ twitter.com

Wbrew pozorom ludzie często ingerują w przekaz, który jest ich zdaniem szkodliwy. Za przykład może posłużyć kampania Protein World 'Beach Body’ z 2015 roku. Reklama z modelką w bikini i słowami ’Czy twoje ciało jest gotowe na plażę?’ zawisła na billboardach w londyńskim metrze. Wielu dojeżdżających do pracy narzekało, że promuje ona szkodliwe stereotypy. Niepożądany przekaz kampanii zgłosiło 378 osób. Wkrótce potem została zakazana, a incydent sprowokował organy do przeprowadzenia publicznych badań dotyczących reklamy odpowiedzialnej społecznie.

Normy społeczne stale ewoluują, dlatego zgłoszenia niepożądanych reklam pomagają organom regulacyjnym nadążać za tym, co opinia publiczna uważa za szkodliwe.

Odwołując się w dalszym ciągu do przykładu Protein World – niezadowoleni odbiorcy przerabiali reklamę, umieszczając na niej rysunki lub dopiski, co dawało do myślenia kolejnym przechodniom. U wielu mogło to wywołać chęć zakwestionowania jakości tego przekazu, niektórzy pod wpływem sugestii zgłaszali ją do odpowiednich organów. Nie działa to jednak w przypadku spersonalizowanych reklam online. Co więcej, gdyby reklama mogła być skierowana tylko do podgrupy konsumentów najbardziej podatnych na jej przekaz, mogliby nie zgłaszać żadnych skarg. W rezultacie szkodliwy przekaz nie zostałby zakwestionowany.

Marten Bjork/ Unsplash.com

Czasami reklamy są szkodliwe w określonym kontekście, na przykład gdy reklamy żywności o wysokiej zawartości tłuszczu są kierowane do dzieci lub gdy reklamy hazardu są kierowane do osób uzależnionych. Ukierunkowane reklamy również mogą zaszkodzić przez pominięcie. Dzieje się tak na przykład wtedy, gdy reklamy butów wypierają ogłoszenia o pracę lub ogłoszenia o zdrowiu publicznym, które ktoś może uznać za bardziej przydatne lub nawet niezbędne.

Przypadki te można opisać jako szkody kontekstowe – nie są one związane z konkretną treścią, ale zależą od kontekstu, w jakim reklama jest prezentowana konsumentowi.

Algorytmy uczenia maszynowego nie są w stanie identyfikować szkód kontekstowych. Wręcz przeciwnie, sposób, w jaki działa targetowanie, je wzmacnia. Na przykład kilka audytów ujawniło, w jaki sposób Facebook pozwolił na dyskryminujące targetowanie, które pogłębia nierówności społeczno-ekonomiczne. Podstawową przyczyną wszystkich tych problemów jest fakt, że konsumenci mają bardzo odosobnione doświadczenia online. Ten stan nazywany jest 'epistemiczną fragmentacją’ i dotyczy sytuacji, gdy informacje dostępne dla każdej osoby dotyczą tego, co już i tak uważa, lubi i czym jest zainteresowana. Tym samym odbiorca nie ma możliwości porównania swojej opinii z innymi we wspólnej przestrzeni, takiej jak np. londyńskie metro. To dowodzi, że nie tylko targetowanie polityczne powoduje szkody – targetowanie komercyjne również może być niebezpieczne.

Zdjęcie główne: ROBIN WERRALL/ Unsplash.com
Tekst: MZ

FUTOPIA