снимка: ЕК
Днес влиза в сила Европейският законодателен акт за изкуствения интелект — първият в света всеобхватен регламент относно изкуствения интелект.
Законодателният акт за ИИ има за цел да гарантира, че ИИ, разработен и използван в ЕС, е надежден, с гаранции за защита на основните права на хората. Регламентът има за цел да се създаде хармонизиран вътрешен пазар за ИИ в ЕС, като се насърчава внедряването на тази технология и се създава благоприятна среда за иновации и инвестиции. Със Законодателния акт за изкуствения интелект се въвежда далновидно определение за ИИ, основано на безопасността на продуктите и основан на риска подход в ЕС.
Минимален риск: Повечето системи с ИИ, като например системите за препоръчване с ИИ и нежеланите филтри, попадат в тази категория. Тези системи не са изправени пред задължения съгласно Законодателния акт за изкуствения интелект поради минималния риск за правата и безопасността на гражданите. Дружествата могат доброволно да приемат допълнителни кодекси за поведение.
Специфичен риск за прозрачността: Системите с ИИ като чатботове трябва ясно да разкриват на ползвателите, че взаимодействат с машина. Определено съдържание, генерирано от ИИ, включително дълбинни фалшификати, трябва да бъде етикетирано като такова и потребителите трябва да бъдат информирани, когато се използват системи за биометрична категоризация или разпознаване на емоции. Освен това доставчиците ще трябва да проектират системите така, че съдържанието под формата на синтетично аудио, видео, текст и изображения да е маркирано в машинночетим формат и да е отбелязано като изкуствено създадено или манипулирано.
Висок риск: От системите с ИИ, определени като високорискови, ще се изисква да отговарят на строги изисквания, включително системи за намаляване на риска, високо качество на наборите от данни, регистриране на дейността, подробна документация, ясна информация за ползвателите, човешки надзор и високо равнище на надеждност, точност и киберсигурност. Регулаторните лаборатории ще улеснят отговорните иновации и разработването на съответстващи на изискванията системи с ИИ. Такива високорискови системи с ИИ включват например системи с ИИ, използвани за набиране на персонал или за оценка дали някой има право да получи заем или да управлява автономни роботи.
Неприемлив риск: Системите с ИИ, които се считат за несъмнена заплаха за основните права на хората, ще бъдат забранени. Това включва системи или приложения с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на ползвателите, като например играчки, използващи гласова помощ, насърчаващи опасно поведение на малолетни и непълнолетни лица, системи, които позволяват „социално оценяване“ от правителства или дружества, и определени приложения на прогнозната полицейска дейност. Освен това, някои видове използване на биометрични системи ще бъдат забранени, например системите за разпознаване на емоции, използвани на работното място, и някои системи за категоризиране на хора или отдалечена биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места (с малки изключения).
За да се допълни тази система, със Законодателния акт за изкуствения интелект се въвеждат и правила за т.нар. модели на ИИ с общо предназначение, които са много способни модели на ИИ, проектирани да изпълняват голямо разнообразие от задачи, като генериране на текст, подобен на човека. Моделите на ИИ с общо предназначение все повече се използват като компоненти на приложенията с ИИ. Законодателният акт за изкуствения интелект ще гарантира прозрачност по веригата за създаване на стойност и ще обърне внимание на възможните системни рискове на най-подходящите модели.
Държавите членки разполагат със срок до 2 август 2025 да определят национални компетентни органи, които ще наблюдават прилагането на правилата за системите с ИИ и ще извършват дейности по надзор на пазара. По-голямата част от правилата на Акта за ИИ ще започнат да се прилагат на 2 август 2026.
За да се преодолее преходният период преди пълното прилагане, Комисията изработи Пакта за ИИ. С тази инициатива разработчиците на ИИ се приканват доброволно да приемат ключови задължения по Законодателния акт за ИИ преди законоустановените срокове.