Neuronaukowcy ostrzegają, że sztuczne inteligencje obecnej generacji są socjopatami

Czy w jakikolwiek sposób jesteśmy w stanie przysposobić maszyny do okazywania empatii?
.get_the_title().

‘Socjopatyczna maszyna, która może podejmować konsekwentne decyzje, byłaby bardzo niebezpieczna. Na razie chatboty mają ograniczone możliwości, zasadniczo są zabawkami, ale jeśli nie zastanowimy się głębiej nad ich świadomością, za rok lub pięć lat możemy stanąć w obliczu kryzysu’ – tak w eseju ‘Without Consciousness, AIs Will Be Sociopaths’ opublikowanym na łamach The Wall Street Journal swoje lęki dotyczące dalszego rozwoju sztucznej inteligencji wyartykułował ostatnio neurobiolog z Uniwersytetu Princeton Michael Graziano.

Chatboty, takie jak robiący aktualnie furorę w doniesieniach medialnych ChatGPT, w imponujący i często trudny do odróżnienia sposób potrafią naśladować ludzki umysł.

Aby jednak generowane przez nie treści współgrały z naszym systemem moralnym, konieczne wydaje się uzbrojenie algorytmów w jakąś formę świadomości – Graziano zwraca uwagę, że to przecież właśnie dzięki niej potrafimy być empatyczni i odnajdywać się w sytuacjach społecznych. Jak to zrobić? Jako jeden z najczęściej podejmowanych pomysłów przewija się strategia znalezienia sposobu na dotarcie do AI z informacją, że świat wypełniony jest wieloma innymi umysłami niż ‘jej własny’. Istotne jest też nauczenie maszyny rozróżniania kiedy rozmawia z człowiekiem, a kiedy z innym urządzeniem.

‘Jeśli chcemy wiedzieć, czy komputer jest świadomy, musimy sprawdzić, czy rozumie on, w jaki sposób świadome umysły wchodzą w interakcje’ – napisał Graziano.

Czy rzeczywiście wielkimi krokami nadchodzi epoka dyktatu sztucznej inteligencji, której, ze względu na jej brak zakorzenienia w naszym systemie wartości, powinniśmy się obawiać?

Tekst: WM
Źródło zdjęcia głównego: Reddit

FUTOPIA