Previous Slide Icon Next Slide Icon
Play Daily Button Pause Daily Button
Exit Daily Button

Test Turinga 2.0, czyli jak określić, że AI staje się samoświadome?

Naukowcy sądzą, że kluczowe jest tu zbadanie umiejętności rozumowania wyrwanego z kontekstu.
.get_the_title().

Algorytmy sztucznej inteligencji są wszechobecne już od paru ładnych lat, jednak gdy kilka miesięcy temu pojawił się ChatGPT, odżyły obawy związane z dalszym rozwojem tej technologii. Podsycały je chatboty odchodzące od przyjętego scenariusza i oszukujące ludzi – choćby sztuczna inteligencja prosząca mężczyznę, by rozwiązał za nią Capchę.

Dotychczas standardem pozwalającym określić, czy maszyna wykazuje inteligentne zachowania, które uchodzą za ludzkie, był test Turinga.

Wydaje się jednak, że w przypadku nowszych i bardziej zaawansowanych algorytmów to już nie wystarczy. Międzynarodowy zespół informatyków, w skład którego wchodzi m.in. jeden członek ekipy OpenAI, chciał sprawdzić, w którym momencie duże modele językowe (LLM), takie jak choćby ChatGPT, ale nie tylko, mogą rozwinąć zdolności wskazujące na to, że są świadome siebie i swojej sytuacji.

Obecnie istniejące LLM są oczywiście testowane pod kątem bezpieczeństwa, jednak próby ich zhackowania i phishingu, do którego dochodziło za pośrednictwem ChatGPT, wzbudzają słuszne obawy. Lukas Berglund, informatyk z Uniwersytetu Vanderbilt, oraz jego współpracownicy obawiają się, że LLM może zyskać świadomość sytuacyjną, czyli taką, która umożliwia pobranie danych ze świata zewnętrznego i takie ich przetworzenie, które prowadzi do optymalnych decyzji i działań. ’LLM mógłby wykorzystać świadomość sytuacyjną, aby uzyskać wysoki wynik w testach bezpieczeństwa, decydując się jednocześnie na podjęcie szkodliwych działań. Ze względu na te zagrożenia ważne jest, aby przewidzieć z wyprzedzeniem, kiedy pojawi się świadomość sytuacyjna’ – tłumaczą naukowcy.

Dlatego Berglund i jego współpracownicy badali potencjalnego prekursora świadomości sytuacyjnej – rozumowanie wyrwane z kontekstu.

’Jest to umiejętność przywoływania faktów zdobytych podczas szkolenia i wykorzystania ich w czasie testu, mimo że fakty te nie są bezpośrednio powiązane z podpowiedziami pojawiającymi się w czasie testu’ – wyjaśniają badacze. Seria eksperymentów wykazała, że większe modele, jak GPT-3 i LLaMA-1, radziły sobie dobrze w zadaniach testujących rozumowanie wyrwane z kontekstu.

Na pocieszenie warto jednak zaznaczyć, że stąd jeszcze daleko do świadomości sytuacyjnej, której obecne LLM-y nie są w stanie opanować. ’Te odkrycia stanowią podstawę do dalszych badań empirycznych w kierunku przewidywania i potencjalnego kontrolowania pojawiania się świadomości sytuacyjnej w LLM’ – piszą badacze.

Tekst: NS

FUTOPIA