Не сме подготвени за телефонни измами с изкуствен интелект
В днешно време държавите използват предимствата на изкуствения интелект (AI). Съществува едно голямо "но" - това е негативното въздействие и бъдещите предизвикателства, които изкуственият интелект ни предоставя. Това каза експертът по национална и киберсигурност проф. дн Илин Савов за Bulgaria ON AIR.
"Това е най-голямото предизвикателство в следващите 10 години. Единствено опитен човек, работил в структурите за сигурност или IT специалист, който може да разграничи истинската реч от фалшивата такава, може да реализира това, че се осъществява измама с изкуствен интелект. Сетивата на човешкото същество не са настроени към разгадаване на конкретни гласови данни. Българският гражданин няма ли подготовка, шансът е нулев", обясни проф. Савов, цитиран и от dnes.bg.
По думите му, с всеки изминал месец технологията, която очертава дийпфейк или т.нар. дълбока фалшификация, създава възможности до близо 99% реч, която ние сме свикнали да чуваме.
"Представете си възрастен човек, който е под стрес, дали ще обърне внимание на интонация, забавяне или объркване на конкретна дума. Невъзможно е", каза проф. Савов. "Всеки един отделен гражданин трябва да почувства сигурност. Всеки един от нас, чрез нашите данъци, плаща на държавата в бюджета, който трябва да осигури сигурност. Важна част е подготовката на полицейските служители, основна роля изиграва Академията на МВР. Към този момент тя не води такова обучение, никога не е водила. Всички ние, като български граждани, имаме нужда от защита. Тя може да бъде осъществена чрез специализирани подготовки, сертификации на всички служители на МВР."
"Това е престъпление, което въздейства няколко етапа. Първоначално - на психологическо ниво, след което на емоционално, морално, етично и впоследствие на физическо. Това е комплекс от свързани престъпления. Нашето общество премина през труден период през 90-то години. Тогава много от нещата се оправяха с хвърляне на пари и заобикаляне на закона. Голяма част от гражданите преценяват да не подават сигнали.Трябва да започнем да ограмотяваме цялото население, като стартираме от детските градини, класовете, телевизиите. AI в момента се използва за анализиране на поведението на хора в социалните мрежи и всяко едно видео, което споделяме, може да бъде генерирано фалшиво такова. Същото се отнася и за текстовите съобщения", каза още проф. Савов.
Добави Коментар