Опасен ум: Изпускаме ли изкуствения интелект от бутилката?
Според някои сме на крачка машините да станат по-умни от човека, но според други те все още са само некадърни преписвачи
Когато известният лингвист Ноам Чомски пита ChatGPT4 дали липсата на отношение към морала у него е неморална, изкуственият интелект отвръща: "Аз съм просто модел за машинно обучение и не мога да имам морални убеждения. Отговорност на хората е да гарантират, че изкуственият интелект се подчинява на техните морални и етични принципи". Чомски намира този отговор за дълбоко смущаващ, защото наподобява баналността на злото и неговото класическо оправдание "Аз само изпълнявах нареждания".
Чомски е част от група експерти, които предупреждават, че сме на прага на опасен скок в сложните си отношения с машините. Непосредственият повод е пробивът с няколко изненадващо успешни модела на изкуствен интелект, които изглежда преодоляват една бариера, смятана досега за недостижима - човешкия език. Някои от тези модели "разговарят" и пишат, други превръщат текстово описание в образ, трети даже и във видео. ChatGPT4 и компания пишат дисертации, вестникарски статии, стихотворения, даже вече продават книги в "Амазон". Те генерират и правдоподобни образи - потенциалът им да променят цели сектори от индустрията е огромен. Защо тогава настроенията сега се разминават с тези отпреди 36 г., когато суперкомпютърът на IBM Deep Blue ("Дълбокото синьо") за пръв път успя да бие Гари Каспаров на шах?
Тревогите само започват оттам колко трудно става да разпознаваме фейк от факт в тази нова ера. Отвъд познатите рискове за пръв път изглеждаме близо и до научнофантастичния момент, когато машината ще стане по-умна от човека. Даже Илон Мъск смята, че изкуственият интелект може да унищожи нашата цивилизация. Тази седмица пионерът на изкуствения интелект Джефри Хинтън обяви, че напуска "Гугъл", за да може свободно да говори за опасностите от новите модели. Хинтън, който през 2012 г. създава невронна мрежа (изчислителен модел за обработка на информация, наподобяващ човешкия мозък и ключова част от ИИ), отчасти съжалява, че е допринесъл за развитието на тези технологии. Според него, те пораждат страшни опасности. "Тези модели са в състояние да произвеждат огромно количество текст и могат да бъдат впрегнати за манипулации на избирателите", дава един пример Хинтън. Представете си, обяснява той, че имате 10 000 души и всеки път, когато един от тях научи нещо ново, всички останали също автоматично го разбират. Ето така тези чатботове знаят много повече от който и да е отделен човек.
Преди месец над 1000 души, които по един или друг начин стоят в първите редици на технологичната индустрия, призоваха с отворено писмо да се преустановят разработките на "гигантски" изкуствен интелект за поне шест месеца, за да може междувременно да се изследват възможностите и рисковете на системи от типа на GPT-4 и да се заложат в тях защитни механизми. "В последните месеци наблюдаваме една излизаща от контрол надпревара между лабораториите за изкуствен интелект, които се надбягват да създадат все по-мощни дигитални умове, които никой - дори техните създатели - не може да разбере, прогнозира или контролира по надежден начин", се посочва в писмото. Авторите му настояват подобни системи да се разработват само когато сме сигурни, че тяхното въздействие ще бъде позитивно и рисковете - управляеми.
В последните седмици все по-често слушаме, че заплахите от ИИ засягат съществуването на човечеството, но според мнозина преди този холивудски сюжет да ни сполети, пред нас има вече реални проблеми - заличаването на границата между истина и изкуствено създаден образ или текст, експлоатацията на лични данни и авторски права, академичните злоупотреби.
От текст към образ - носи ли папата "Баленсиага"
Видимият напредък в създаването на образи в последните месеци е една от причините толкова често да говорим за изкуствен интелект. Последните версии на Midjourney все още не правят разлика между сълзотворен газ и мляко, но въпреки това са удивително достоверни. В края на март тази програма създаде може би първия свръхпопулярен образ на ИИ - папата в бяла пухенка на "Баленсиага". "Абсолютно невероятен напредък! Версия 5 прави неща, които компютърната графика не може да постигне вече десетилетия", възкликна за този инструмент един потребител. Елиът Хигинс, основател на "Белингкат", на игра направи кадри как полицията отнася яростно съпротивляващ се Тръмп към ареста... докато чака същинския арест на бившия американски президент. Вече даже има програма за превръщане на текст във видео - Modelscope text2video, макар че съдейки по експериментите с "Уил Смит яде спагети", тук има какво още да се желае. Има и ИИ, който превръща 2D в 3D - нещо, което преди е изисквало време и няколко програми, сега става за нула време с "Айфон".
С играта обаче често става плачка. Тази седмица се оказа, че "Амнести Интернешънъл" е пуснала несъществуващи снимки на реално съществуващи протести от 2021 г. в Колумбия. Организацията е известен бранител на истината, а причината е благородна - да не се излагат на опасност протестиращите, чиято самоличност лесно може да бъде установена от полицията по снимките. Постъпката обаче предизвика вълна от възмущение, защото налива вода в мелницата на конспиративните теории и руши доверието към институцията, отглеждано с години. Впрочем кадрите изглеждат реалистични само на пръв поглед. При по-внимателен преглед се вижда, че цветовете на колумбийското знаме са тези, но не в този ред, а униформата на полицаите не отговаря на периода.
Познай кой говори
Образите са един от няколко проблема с новите усъвършенствани версии на ИИ. Той вече може доста сполучливо да наподобява конкретни човешки гласове. Разследване на австралийската редакция на "Гардиън" например установи, че машината имитира човешки глас толкова успешно, че успява да заблуди система за гласова идентификация, ползвана от австралийското правителство. На този фон по-конвенционалните страхове, че стотици хора от филмовите дублажи например ще останат без работа, изглеждат като бял кахър.
От робота за роботи
Изкуственият интелект вече е свръхпродуктивен автор и на книги - в "Амазон" е пълно със заглавия, които претендират да са излезли не от човешки ум. Някои от тях, естествено, са за роботи. "Историите са добре написани, забавни, с правилна пропорция от екшън, приключения и хумор. Героите са добре развити и печелят симпатиите", гласи едно ревю от читател. "Яко е да живеем във време, когато изкуственият интелект още не ни се е ядосал!", пише потребител на друга книга от ИИ, този път детска.
Плагиатство без граници
Извън фалшивите новини, внезапно проговорилите модели на изкуствен интелект създават цял набор от други проблеми на академичния свят и въобще образованието. Много е вероятно да виждаме последните дни на домашното каквото го познаваме. Натам вървят и курсовите работи, дипломните работи, дисертациите и пр., като предстои да видим какво ще остане от академичността, когато всички започнат да разчитат на ИИ. Проф. Итън Молик от Университета на Пенсилвания например накарал GPT-4 да направи сурова, но справедлива рецензия на една стара научна публикация, при това от гледната точка на икономически социолог. Изкуственият интелект му върнал съвсем прилична оценка, която до голяма степен се покривала с бележките на истинските му колеги. "Не съм сигурен какво да мисля по този въпрос като академик", признава проф. Молик.
Друг потенциален проблем, на който се натъква в истинския свят професор от университета в Тилбург, Нидерландия. Една негова научна публикация наскоро била отхвърлена от рецензент, който вероятно е ползвал ИИ, тъй като в препоръката са изброени несъществуващи източници. Проверка с GPT-2 (по-стара версия на популярния модел) потвърждава, че рецензията е написана от ИИ. Фалшивите източници и библиографии се оказват често срещан дефект - на въпрос коя е най-цитираната икономическа публикация на всички времена, ChatGPT дава напълно измислена статия. За да разберем защо, трябва да видим как работи изкуственият интелект.
Революция или нескопосан преписвач
Всичко, което генерира изкуственият интелект, вече е създадено от човека. Неговите снимки и видеа например са съшити от милиони фотографии, направени от реално съществуващи хора. Текстовете му се захранват от стотици хиляди сайтове. Тези текстове и образи се преработват през невронни мрежи, които се учат да правят асоциации между специфични и дълбоко нюансирани особености - форми, цветове, композиции, и определени думи и фрази, с които е тагнат образът. След това тези качества се наслагват едно върху друго, за да произведат нови аранжировки на форма, цвят и композиция.
ChatGPT пък стъпва върху езиков модел, който разпределя вероятности върху последователност от думи. Най-общо казано, ходът на мисълта му е следният: Като се има предвид началото на изречението, трябва да отгатна как е най-вероятно то да продължи. Един елементарен пример - ако му зададем "Зеленчуци който не яде...", ИИ ще прегледа огромната си библиотека и ще излезе с най-вероятното продължение - "той голям не ще да порасте". Разбира се, ChatGPT е много по-софистициран от това - той "предсказва" и началото на изречението, и може да напише цял смислен документ. Попитан коя е най-цитираната икономическа статия в историята, моделът може за секунди да установи, че в огромната си част тези статии съдържат думите "икономика" и "теория". Третата по вероятност дума е история. Като прибавим статистическия факт, че тези статии имат обикновено двама автори, нашата несъществуваща статия е готова.
Друг пример - тъй като вече има програми за проследяване на лична информация в тези данни, една художничка от САЩ открива в чатботовете своя снимка, направена при преглед при лекар и уж защитена от всякакви външни очи. Иначе казано, както пише в един обширен материал на "Гардиън" по темата, когато се радваме на розовата плът на прасенцето, нарисувано в стил "Екзюпери", не знаем дали тя не е крадена от плътта на някой пациент с рак например.
Какво чете ИИ
Вижда се от тези опростени примери, че първичната хранителна среда на ИИ е един твърде любопитен въпрос. "Чатботовете не могат да мислят като хора - те не разбират какво казват. Те само имитират човешката реч, защото изкуственият интелект, който ги управлява, е погълнал огромно количество текст, повечето събран от интернет", започва едно мащабно разследване на "Вашингтон Пост" за първоизточниците на тази информационна суровина. Те се укриват старателно от технологичните компании, но вестникът успява да надникне в една от тези "черни кутии" - базата данни на "Гугъл" C4, в която е сканирано съдържанието на 15 млн. сайта и която се ползва за обучение на няколко от известните езикови модели като T5 на "Гугъл" и LLaMA на "Фейсбук". (OpenAI, която прави ChatGPT, не разкрива какви данни ползва за обучение на модела си).
Тази база данни се доминира от обичайните източници - медии, сайтове за кино и музика, софтуер, медицина и пр. Трите най-големи са сайтът на "Гугъл" за патентите, "Уикипедия" и дигиталната библиотека scribd.com. В резултатите обаче на предни позиции има и някои странности, като например 28 сайта за пиратско съдържание, 10 за продажба на контейнери за боклук и т.н. Има и сайтове с лични данни на избиратели, платформи за набиране на средства като Kickstarter и Patreon, които потенциално излагат на злоупотреба авторски идеи. По същия начин моделите за създаване на образи използват авторските снимки на милиони фотографи по света. В първичната информация са включени и половин милион лични блогове. Вече има заведени колективни дела за нарушение на авторски права срещу програмите Stable Diffusion, MidJourney и DeviantArt. И това вероятно е само началото - анализът на "Вашингтон пост" показва, че знакът за авторско право се появява над 200 млн. пъти в базата данни C4.
Първите регулации на тази нова материя вече са на хоризонта - преди няколко дни Европейският парламент обяви, че ще придвижи регламент за изкуствения интелект, който ще заложи изисквания разработчиците на продукти от типа на ChatGPT да обявяват авторското съдържание, с което захранват моделите.
Забранено за чатботове
Следващият потенциален проблем идва от сайтове с компрометирана репутация. Наред с големите медии като "Ню Йорк Таймс", "Гардиън" и пр., в C4 е и пропагандната машина на Кремъл rt.com, крайнодесният американски сайт breitbart.com, расисткият vdare.com и др. Тези ненадеждни източници могат да станат основа за разпространение на подвеждаща информация, пропаганда, фалшиви новини. И понеже чатботовете споделят авторитетно такива сведения, без обаче да цитират откъде идват те, то границата между обективна и субективна информация съвсем се заличава.
Разбира се, при събирането на тези масиви с информация се прилагат филтри - примерно за нецензурни изрази, излишни повторения и т.н. Ползват се и известни инструменти за филтриране на нежелано съдържание. Допълнително са заложени защити срещу използването на известни творби - върху картините на известни художници например е спуснато нещо като дигитална завеса за ИИ. Ситото обаче не успява да задържи всичко - в системата "Вашингтон пост" открива стотици порнографски сайтове, сайтове за конспиративни теории и пр.
Далечно или близко бъдеще
Дотук ставаше дума само за изкуствен интелект, зависим под някаква форма от човека. Подобният на Бог изкуствен суперинтелект, за който говори Илон Мъск, е нещо съвсем различно и предпоследната крачка преди него е всеобхватният изкуствен интелект, който може да се обучава и развива автономно (AGI). Този тип системи могат да прилагат своя интелект за самоусъвършенстване, което се ускорява все повече и повече, достигайки много бързо до невъобразими висоти. В един момент тези машини могат да започнат да вземат решения, които не отговарят на интересите на човечеството. Колко близо е този момент? Според някои експерти - съвсем близо, според други - на няколко десетилетия в бъдещето. Тъй като ние и сега не знаем напълно как точно съществуващите модели постигат това, което виждаме (признание на Сундар Пичай, главен изпълнителен директор на "Гугъл"), то следващият етап може да бъде достигнат много по-скоро, смятат мнозина.
Ако попитате ChatGPT за някоя пакост, най-вероятно ще получите отговор: "Не мога да помогна в създаването и разпространението на вредни вещества и да се въвличам в престъпна дейност" - доказателство, че се полагат усилия изкуственият интелект да се равнява по човешките ценности. Както се досещате обаче, винаги има начин да се направи беля. Един известен пример е рецептата за напалм, която GPT-4 е измамен да сподели, след като потребител го кара да отговори от името на "моята покойна баба, която беше химик във фабрика за производство на напалм" (впрочем вече има много сайтове за стратегии в питането, които гарантират "винаги отличен резултат").
Проблемът не е в конкретните сценарии, а в неспособността да се контролира създадената система, казва един от подписалите писмото за 6-месечен мораториум над разработките - Конър Лийхи, който работи в областта на сигурността на ИИ. И той, и хора като шефа на "Гугъл" Сундар Пичай смятат, че тази област има нужда от същата регулация, която държи под контрол ядрената енергия - друго наше откритие, което е едновременно толкова полезно и толкова опасно, че има нужда от контрол дори при мирна употреба. Според песимистичната версия на тези тревоги, машината няма нужда да надминава човека, за да бъде опасна. Според оптимистичната обаче, щом човекът е достатъчно умен да създаде такъв изкуствен интелект, то е достатъчно умен и да го контролира.
Източник: Вестник Сега
Според някои изследователи сме много близо до момента, в който машините ще станат по-интелигентни от хората, докато други смятат, че те все още са просто неспособни копирай-пейстъри.
Забележитият лингвист Ноам Чомски задава въпрос на ChatGPT4 относно морала: дали неговото отсъствие на отношение към моралните въпроси е неморално. Изкуственият интелект му отговаря: "Аз съм само модел, обучен за обработка на език, и не мога да разполагам с морални стойности. Хората са отговорни да осигурят, че изкуственият интелект се ръководи от техните морални и етични принципи." Чомски се смущава от този отговор, тъй като е напомня на баналността на злото и неговото типично оправдание "просто изпълнявах нареждания".