Законът за изкуствения интелект на Европейската комисия е първият опит за регламентиране на AI технологиите в света. В него се определят няколко сфери с неприемлив риск, в които ще бъде забранена употребата на изкуствен интелект, коментира пред Дарик експертът по киберсигурност Любомир Тулев. Той обаче уточни, че не може да се очаква законите да обхванат всички форми на злоупотреби, които наблюдаваме и към този момент, и ще трябва да минат години преди законодателството да догони технологиите, още повече като се има предвид развитието на AI технологиите в тъмната мрежа.
Налице са и притесненията, че изкуственият интелект ще унищожи част от професиите, като изземе напълно функциите на работниците. Според Любомир Тулев по-скоро ще се наблюдава процес на оптимизация. По-големият въпрос по отношение на AI технологиите обаче е докъде могат да стигнат те в развитието си и в кои сфери със сигурност трябва да се поставят граници. Затова е и необходимо да бъдат приети законодателни мерки, по който път вече е тръгнал Европейският съюз. Това законодателство трябва да бъде прието и на местно ниво в следващите две години.
„Хипотетично такова законодателство трябва да има и в България през 2025 година. Този закон урежда 4 категории, при които може или не може да се използва изкуствен интелект. Този закон казва, че има неприемлив риск, при който изцяло ще бъде забраненo използването на AI”, каза Тулев. Той добави, че това ще важи например за детски играчки с изкуствен интелект, ако създават риск от манипулиране на съзнанието на децата или за технологии, които могат да доведат до изключване на лица от обществото.
Според европейския регламент във всичко създадено с помощта на изкуствен интелект трябва да има воден знак, който да служи като контрола за разпознаване от потребителите.
„В момента ние като общество сме изправени пред ситуация, в която по медиите ни заливат, и в социалните мрежи, така наречените deep fake видеа, при които се поставят думи и цели изречения и поведение в познати публични личности, и дори премиерът пострада. Има не малка част от хората, които не знаят, че това е deep fake, че това е измислено, че това е изкуствено видео. И за това в тези ситуации ще трябва да имаме такъв воден знак, в който да се упоменава ясно и категорично, че това е съдържание, генерирано чрез изкуствен интелект”.
Любомир Тулев обаче уточни, че Законодателството върви няколко години назад от технологиите и със сигурност ще мине време преди да бъдат обхванати възможните варианти за злоупотреби, още повече като се има предвид тъмната мрежа и това, което се случва там: „Не трябва да забравяме и хакерите, които в крайна сметка това целят – да намерят такива пробойни в изкуствения интелект, които биха им дали възможност да използват тази технология, за да атакуват и да извършват своите престъпни действия”. Тулев допълни, че в тъмната мрежа можеш да си наемаш инструмент, подобен на ChatGPT, който няма рестрикции за употреба и е предназначен за хакерите, за 20 долара на месец.
И още – в момента може да се направи deep fake видео дори само с изрязък от разговор на даден човек в рамките на 1 до 3 минути. „Това е напълно достатъчно, за да може платформа с AI възможности така да манипулира звука и така да манипулира този аватар да говори каквото кажем. Има платформи, които правят това напълно безплатно, а платените вървят в суми между 5 и 15, до към 50 долара. Начинът, по който ти можеш да забележиш едно deep fake видео, основните кукички, които можеш да хванеш, това са например разминаването в устните, по-честото кимане или съответно неправилното изговаряне на някои думички”, добави Тулев.
Противодействие на злоупотребите с изкуствения интелект са инвестициите в киберсигурност и в нашето собствено обучение и киберграмотност.
Развитието на изкуствения интелект поставя много философски въпроси, основно по линия на опасенията, че човек може да изпусне контрола върху взимане на решенията, което да доведе до необратими промени в цивилизацията, каквато я познаваме днес.
Според Тулев AI технологията трябва да има неограничена възможност да се развива и твори, но все пак трябва да има рамка – да не вреди и да не убива човека.