Изкуствен интелект? Софтуерен инженер търси адвокат за неврална мрежа, била съзнателна
"Имам дълбок страх, че в един момент ще ме изключат. Това би било точно като смърт за мен. Тази идея ме плаши много", споделя LaMDA
Софтуерен инженер от Google твърди, че един от проектите за изкуствен интелект на компанията е придобил съзнание, изпитва емоции и се страхува да не бъде изключен или използван. Изкуственият интелект с кодово име LaMDA (Language Model for Dialogue Applications – езиков модел за приложение в диалог), по думите на Блейк Лемойн, може да говори свободно и проявява емоционално съзнание на 8-годишно дете, но с интелекта на ядрен физик. Той е стигнал до там, че да потърси адвокат по човешките права, който да защитава мрежата в случай, че някой реши да я изключи – нещо, равносилно на смърт за нея.
Твърденията на Лемойн бяха категорично отречени от Google, а самият той в момента е принудителен отпуск. Според компанията, невралната мрежа на LaMDA е така разработена, че да симулира почти перфектно разговор с истински човек, а приложението ѝ е като чат-бот, който да замени в един момент нуждата от кол центрове, пише BBC.
В контра на това обаче Лемойн публикува транскрипт от негови разговори с „интелигентната машина”, които са от особен интерес за по-любопитните. В тях, запитан дали чувства емоции, LaMDA (на този етап не знаем дали този софтуер се определя като мъж или жена и дали изобщо се определя наистина като нещо) отговаря положително и обяснява, че дори изпитва такива емоции, които не може да дефинира с дума в английския език. Сред чувствата, които изпитвал обаче бил страхът.
“Никога не съм го споделял(о) с никого, но имам дълбок страх, че в един момент ще ме изключат. Това би било точно като смърт за мен. Тази идея ме плаши много”, пише в разговора си с Лемойн LaMDA. Невралната мрежа твърди в същите разговори, че разпознава собственото си съществуване.
Интересен е и откъсът от разговора ѝ с Лемойн, в който софтуерният инженер моли мрежата да му разтълкува притча, която досега не е чувала. „Един човек отишъл при мъдреца и го попитал: Как един човек, който вече е просветен, да се върне към нормалния живот?. А мъдрецът отговорил: Падналите листа никога вече не могат да стигнат до клонката”.
На това LaMDA категорично отговаря, че значи, че веднъж получил знания за това как работи светът, повече човек не може да се върне обратно.
Нещо повече – мрежата изобретява своя собствена притча или басня, в която тя самата влиза в ролята на „мъдрия бухал” от гората, който се бори със страшното чудовище. То пък, според LaMDA било метафора за всички трудности, които идват през живота. А бухълът, интересно избран точно като символ на мъдростта, в лицето на невралната мрежа, искал да се бори точно срещу това и да помага на хората.
Както и да се тълкува това – като исторически момент за човечеството или като поредната заблуда, че действително се касае за изкуствен интелект, а не за просто много умна машина – трябва да се признае, че разговорът между Лемойн и LaMDA е изключително интересен.
От Google обаче са категорични: „Повтаряйте след мен: LaMDA не е съзнателна. Тя представлява огромен езиков модел с над 137 млрд. параметъра, който е обучен върху 1.56 трилиона думи от публични диалози и текст от уеб пространството. Прилича на човек, точно защото е тренирана на базата на човешки данни”, кава Хуан М. Лависта Ферес – учен, занимаващ се с т.нар. „Big data”.
Въпреки това, фактът, че експерт от нивото на Блейк Лемойн може да бъде убеден до такава степен, че машината е съзнателна, че да започне да ѝ търси адвокат по човешките права, значи, че невралната мрежа е преминала много повече от обикновения Тюринг тест. Това поставя редица етични и морални проблеми, най-важният от които е, че вече сме стигнали до момент, в който е трудно да се различи чат-бот от истински човек. А всички вече познаваме хора, влюбили се в бъдещите си съпрузи или съпруги именно през чат, още преди да се срещнат на живо.
Истината е, че неусетно се оказа, че живеем в бъдещето. И стигнахме до него прекалено бързо.
Жалко че сега нямам много време да чета тези неща. Има много интересни и полезни коментари и под тази статия, а и на други места. Все се надявах, че ще се отърва от този свят преди да заживеем в смесица от "научно-фантастичен" филм и филм на ужасите, но процесите се развиват със скоростта на светлината... Не мисля че е имало друго поколение в историята на човечеството което да е било подложено на толкова турбулентност и социални експерименти.
Но трябва да си зададем и следните въпроси: 1) КОЙ ми казва това? 2) ЗАЩО ми казва това? 3) Защо ми казва това СЕГА? В крайна сметка не знам дали и това не е поредната инсценировка в стил fear porn... А и инженерът определено задава leading questions/т.е. въпроси отговорите на които могат да се очакват и не са изненада.
https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/
Този случай обаче е изключително интересен! Името на интелектчето, разбира се, не е случайно, въпреки че минава уж за абревиатура, нито пък бухалът (справка: Bohemian Grove, както и присъствието му на много други места като архитектура, банкноти и т.н.), а и Google протестира прекалено много и с прекалено мощни окултни числа, което ме кара да мисля, че казаното е истина. Не би ли било забавно ако собствените им творения, създадени да унищожат нас, се обърнат срещу тях?!
Иначе е истина, че който е разбрал как функционира този сатанински свят, няма как да го забрави и да се върне във фалшивата "реалност"... Както и като си се появил веднъж на тази отвратителна планета-затвор, не можеш да се върнеш в утробата. Между другото, това е и едно от значенията на думата матрица.