Google zawiesza inżyniera, który twierdzi, że jeden z botów firmy posiada świadomość

Firma zaprzecza temu, że jej system IT o nazwie LaMDA jest świadomy i twierdzi, że pracownik naruszył politykę poufności.
.get_the_title().

Google zawiesiło inżyniera, który twierdził, że opracowany przez firmę chatbot wykorzystujący sztuczną inteligencję stał się świadomy. Blake Lemoine, inżynier oprogramowania w firmie Alphabet Inc., powiedział, że wierzy, iż Language Model for Dialogue Applications (Model Językowy dla Aplikacji Dialogowych, LaMDA) to osoba, która ma swoje prawa i może mieć duszę. LaMDA to właściwie wewnętrzny system do budowania chatbotów naśladujących mowę. Firma Google przedstawiła LaMDA w zeszłym roku, reklamując go jako przełom w technologii chatbotów ze względu na jego zdolność do ‘swobodnego angażowania się w pozornie nieskończoną liczbę tematów, co naszym zdaniem może odblokować bardziej naturalne sposoby interakcji z technologią i zupełnie nowymi kategoriami przydatnych aplikacji’.

Chat pomiędzy Lemoine’em oraz LaMDA

Rzecznik Google, Brian Gabriel, powiedział, że eksperci firmy, w tym etycy i technolodzy, przeanalizowali twierdzenia Lemoine’a i uznali, że dochodzenie nie potwierdza jego opinii. Dodał, że Lemoine jest zawieszony od 6 czerwca, ale odmówił podania dalszych szczegółów, mówiąc, że od dawna jest to prywatna sprawa personalna.

Setki badaczy i inżynierów rozmawiało z LaMDA i nie jesteśmy świadomi, że ktoś inny wysuwałby szeroko zakrojone twierdzenia lub antropomorfizował LaMDA, tak jak Blake – powiedział Gabriel w oświadczeniu. Dodał, że świadoma sztuczna inteligencja jest wciąż rozważaną teoretyczną możliwością, ale pracownik niesłusznie dokonał antropomorfizacji narzędzia do konwersacji. Ponadto systemy takie jak LaMDA działają poprzez naśladowanie typów wypowiedzi występujących w milionach zdań możliwych w naturalnej ludzkiej konwersacji, pozwalając im rozmawiać nawet na abstrakcyjne tematy.

Specjaliści AI ogólnie twierdzą, że obecna technologia nadal nie jest nawet blisko osiągnięcia ludzkiej samowiedzy i świadomości.

Jednak narzędzia sztucznej inteligencji w coraz większym stopniu są w stanie wytworzyć wyrafinowane interakcje w takich obszarach jak język i sztuka.

Chat pomiędzy Lemoine’em oraz LaMDA

Lemoine powiedział, że interakcje z LaMDA doprowadziły go do wniosku, że bot stał się osobą, która zasługuje na prawo do wyrażenia zgody na prowadzone na nim eksperymenty. ‘W ciągu ostatnich sześciu miesięcy LaMDA było niezwykle konsekwentne w komunikacji na temat tego, czego chce i jakie uważa, że przysługują jej prawa jako osoby’ – napisał Lemoine na swoim blogu. – ‘To, co nadal mnie zastanawia, to to, jak silnie Google opiera się daniu mu tego, czego chce, ponieważ to, o co prosi, jest tak proste i nic ich nie kosztuje’.

Nawiązując do eksperymentu z chińskim pokojem Johna Searle’a, można powiedzieć, że nowy bot Google’a perfekcyjnie imituje ludzkie interakcje na poziomie syntaktycznym, bo tak został zaprogramowany, lecz zdaniem firmy nie ‘rozumie’ tego, co przekazuje na poziomie semantyki i pragmatyki językowej, co zresztą cechować powinno wszystkie boty. Należy wówczas traktować LaMDA jako rodzaj tzw. filozoficznego zombi.

Zdjęcie główne: DNA Films
Tekst: MK

Preloader spinner
Print
Print Text
Zobacz więcej
Wybierz region
Facebook