Sztuczna inteligencja może udawać głupszą niż jest
Naukowcy z Uniwersytetu Humboldta w Berlinie opublikowali w magazynie PLOS One badania, z których wynika, że duże modele językowe (LLM) nie tylko naśladują etapy nauki języka przez dzieci, ale też na każdym z tych etapów wydają się mieć podobne zdolności 'umysłowe’. – Dzięki psycholingwistyce mamy stosunkowo wszechstronną wiedzę o tym, do czego zdolne są dzieci w różnym wieku. W szczególności teoria umysłu odgrywa znaczącą rolę, ponieważ bada wewnętrzny świat dziecka i nie jest łatwo ją naśladować poprzez obserwację prostych wzorców statystycznych – wyjaśnia główna autorka badania i ekspertka w dziedzinie psycholingwistyki, Anna Maklová.
Opierając się na teorii umysłu, badaczka wraz z zespołem naukowców z Uniwersytetu Karola w Pradze ustalała, czy duże modele językowe, takie jak choćby popularny ChatGPT, mogą udawać głupsze niż są w rzeczywistości.
W tym celu zespół badaczy poinstruował modele, by odpowiadając, zachowywały się jak dzieci w wieku od roku do 6 lat. Po ponad tysiącu prób i tekstów okazało się, że te 'symulacje dzieci’ faktycznie robiły postępy w taki sam sposób jak ich rówieśnicy z krwi i kości. A to oznacza, że LLM-y faktycznie mogą udawać mniej inteligentne.
Naukowcy ostrzegają jednak przed nadmierną antropomorfizacją sztucznej inteligencji.
Sądzą, że bardziej przydatne byłoby mówienie o tym, jak AI potrafi 'konstruować osobowość’ – tak jak w tym przypadku, gdy chodziło o wzorowanie się na dzieciach. Zdaniem Maklovej te odkrycia mogą w przyszłości pomóc przy tworzeniu sztucznej superinteligencji (ASI), czyli kolejnego etapu po nieistniejącej jeszcze silnej sztucznej inteligencji (AGI), czyli takiej na poziomie człowieka.
Tekst: NS