Test Turinga 2.0, czyli jak określić, że AI staje się samoświadome?

Naukowcy sądzą, że kluczowe jest tu zbadanie umiejętności rozumowania wyrwanego z kontekstu.
.get_the_title().

Algorytmy sztucznej inteligencji są wszechobecne już od paru ładnych lat, jednak gdy kilka miesięcy temu pojawił się ChatGPT, odżyły obawy związane z dalszym rozwojem tej technologii. Podsycały je chatboty odchodzące od przyjętego scenariusza i oszukujące ludzi – choćby sztuczna inteligencja prosząca mężczyznę, by rozwiązał za nią Capchę.

Dotychczas standardem pozwalającym określić, czy maszyna wykazuje inteligentne zachowania, które uchodzą za ludzkie, był test Turinga.

Wydaje się jednak, że w przypadku nowszych i bardziej zaawansowanych algorytmów to już nie wystarczy. Międzynarodowy zespół informatyków, w skład którego wchodzi m.in. jeden członek ekipy OpenAI, chciał sprawdzić, w którym momencie duże modele językowe (LLM), takie jak choćby ChatGPT, ale nie tylko, mogą rozwinąć zdolności wskazujące na to, że są świadome siebie i swojej sytuacji.

Obecnie istniejące LLM są oczywiście testowane pod kątem bezpieczeństwa, jednak próby ich zhackowania i phishingu, do którego dochodziło za pośrednictwem ChatGPT, wzbudzają słuszne obawy. Lukas Berglund, informatyk z Uniwersytetu Vanderbilt, oraz jego współpracownicy obawiają się, że LLM może zyskać świadomość sytuacyjną, czyli taką, która umożliwia pobranie danych ze świata zewnętrznego i takie ich przetworzenie, które prowadzi do optymalnych decyzji i działań. ’LLM mógłby wykorzystać świadomość sytuacyjną, aby uzyskać wysoki wynik w testach bezpieczeństwa, decydując się jednocześnie na podjęcie szkodliwych działań. Ze względu na te zagrożenia ważne jest, aby przewidzieć z wyprzedzeniem, kiedy pojawi się świadomość sytuacyjna’ – tłumaczą naukowcy.

Dlatego Berglund i jego współpracownicy badali potencjalnego prekursora świadomości sytuacyjnej – rozumowanie wyrwane z kontekstu.

’Jest to umiejętność przywoływania faktów zdobytych podczas szkolenia i wykorzystania ich w czasie testu, mimo że fakty te nie są bezpośrednio powiązane z podpowiedziami pojawiającymi się w czasie testu’ – wyjaśniają badacze. Seria eksperymentów wykazała, że większe modele, jak GPT-3 i LLaMA-1, radziły sobie dobrze w zadaniach testujących rozumowanie wyrwane z kontekstu.

Na pocieszenie warto jednak zaznaczyć, że stąd jeszcze daleko do świadomości sytuacyjnej, której obecne LLM-y nie są w stanie opanować. ’Te odkrycia stanowią podstawę do dalszych badań empirycznych w kierunku przewidywania i potencjalnego kontrolowania pojawiania się świadomości sytuacyjnej w LLM’ – piszą badacze.

Tekst: NS

FUTOPIA