Koniec internetu, jaki znamy. Dlaczego większość witryn jest bezużyteczna?
Generatywne modele sztucznej inteligencji zmieniają ekonomię sieci, sprawiając, że tworzenie niższej jakości treści staje się coraz tańsze. Dopiero zaczynamy dostrzegać efekty tych zmian. Na Twitterze i Instagramie zaczyna się pojawiać coraz więcej botów, treści na TikToku są coraz słabsze, ChatGPT jest używany do generowania całych witryn ze spamem, Etsy zalewane jest śmieciami generowanymi przez sztuczną inteligencję, a na portalach oferujących pracę coraz częściej szuka się redaktorów AI.
Internet, jaki znaliśmy do tej pory, umiera, a nowy tworzy się na naszych oczach.
Kilka lat temu sieć była miejscem, w którym to ludzie robili rzeczy – tworzyli własne strony internetowe, fora i newslettery, a przy tym byli w stanie zarobić trochę pieniędzy. Potem firmy uznały, że czas na coś nowego – stworzenie jednej platformy, gdzie każdy będzie mógł pokazać to, co chce. Rosnący w siłę gracze z branży tech gonili za skalą, ponieważ gdy już gdziekolwiek zbierze się wystarczająca liczba osób, zazwyczaj pojawia się sposób, aby na nich zarobić. Teraz sztuczna inteligencja zmienia i te założenia.
Biorąc pod uwagę pieniądze i moc obliczeniową, systemy sztucznej inteligencji — zwłaszcza modele generatywne — skalują się bez wysiłku. Produkują masę tekstów i obrazów, a także muzykę i wideo. To, co nam oferują, może potencjalnie przewyższyć platformy, na których polegamy w zakresie dostarczania nam wiadomości, informacji i rozrywki. Ale jakość tych systemów jest często niska. Są one zbudowane w sposób pasożytniczy, ponieważ modele te są szkolone na danych powstałych podczas ostatniej ery sieci, którą tworzyli ludzie. Firmy zbierają informacje i przekształcają je w treści generowane maszynowo, które są tanie i często średniej jakości. Finalny produkt konkuruje ostatecznie o uwagę z tym, co stworzą ludzie.
W ostatnich miesiącach takie platformy jak Reddit, Wikipedia, Stack Overflow czy samo Google ujawniły pewne napięcie związane z pojawieniem się systemów sztucznej inteligencji. Google eksperymentuje z wersją wyszukiwarki, gdzie wyświetlają się wyniki wyszukiwania wygenerowane przez sztuczną inteligencję jeszcze przed przed źródłami tych danych. Wielu ekspertów ostrzega, że jeśli Google wprowadzi takie rozwiązanie, skutki będą trudne do przewidzenia. Potencjalnie zniszczyłoby to całe obszary sieci, które większość z nas uważa za przydatne — od recenzji produktów po blogi z przepisami, strony internetowe hobbystów, serwisy informacyjne i strony wiki. Witryny mogłyby się chronić, blokując dostęp i pobierając opłaty za swoje treści, ale oznaczałoby to również ogromne przeorganizowanie gospodarki internetowej. W końcu Google może zabić ekosystem, który stworzyło lub zmienić go nieodwracalnie i ostatecznie podważyć własne istnienie.
Coraz więcej stron internetowych jest wypełnianych tanimi i wadliwymi treściami generowanymi przez sztuczną inteligencję.
Co się stanie, jeśli pozwolimy, żeby to sztuczna inteligencja zaczęła dostarczać informacje ludziom? Cóż, dotychczasowe dowody sugerują, że ogólnie pogorszy to jakość sieci. Pomimo całej osławionej zdolności sztucznej inteligencji do generowania tekstu, to ludzie ostatecznie tworzą podstawowe dane – niezależnie od tego, czy są to dziennikarze sprawdzający fakty czy użytkownicy Reddita. Z kolei informacje generowane przez modele językowe AI i chatboty nadal są często nieprawidłowe i co gorsza, nie jest to łatwe do wykrycia.
Czy to jednoznacznie złe, że nasza sieć zmienia się wraz z postępem w obszarze sztucznej inteligencji? Z jednej strony zawsze było tak, że nowa technologia wypierała starszą. Na przykład drukowane encyklopedie praktycznie wymarły, gdy pojawiła się Wikipedia. Zasadniczo jest to bitwa o informacje — o to, kto je tworzy, w jaki sposób uzyskujesz do nich dostęp i kto ostatecznie otrzymuje zapłatę.
Tekst: MZ