Първият световен закон за AI влиза в сила – какво следва за технологичните гиганти
Законът има за цел да регулира начина, по който компаниите разработват, използват и прилагат изкуствен интелект. Той вече получи окончателно одобрение от държавите-членки на ЕС, законодателите и ЕК
Знаковият закон на Европейския съюз за изкуствения интелект официално влиза в сила от днес – 1 август.
Законодателството цели да регулира начина, по който компаниите разработват, използват и прилагат новата технология.
През месец май то беше окончателно одобрено от държавите членки на ЕС, законодателите и Европейската комисия - изпълнителния орган на ЕС, припомня CNBC.
Какво представлява Законът за изкуствения интелект?
Това е законодателен акт на ЕС, предложен за първи път от Европейската комисия през 2020 г., за да се справи с отрицателните въздействия на изкуствения интелект.
Законът ще бъде насочен предимно към големите американски технологични компании, които понастоящем са основните конструктори и разработчици на най-усъвършенстваните системи за изкуствен интелект.
В обхвата на правилата обаче ще попаднат и много други компании, в това число и нетехнологични. С регламента се установява цялостна и хармонизирана регулаторна рамка за AI в ЕС, като се прилага основан на риска подход за регулиране на технологията.
Танги Ван Оверстратен, ръководител на практиката по технологии и медии на адвокатска кантора Linklaters в Брюксел, заяви, че Законът е „първият по рода си в света“.
„Той вероятно ще окаже въздействие върху много компании, особено върху тези, които разработват системи с изкуствен интелект, но и върху тези, които ги внедряват или просто използват при определени обстоятелства.“
В законодателството се прилага основан на риска подход към регулиране, което означава, че различните приложения на технологията се регулират по различен начин в зависимост от степента на риска, който представляват за обществото.
За приложенията на AI, за които се счита, че са „високорискови“ например, ще бъдат въведени строги задължения. Те включват адекватни системи за оценка и намаляване на риска, висококачествени набори от данни за обучение, за да се сведе до минимум рискът от пристрастия, рутинно регистриране на дейността и задължително споделяне на подробна документация за моделите с органите за оценка на съответствието.
Примери за високорискови системи с изкуствен интелект са автономните превозни средства, медицинските устройства, системите за вземане на решения за отпускане на заеми, образователните оценки и системите за дистанционна биометрична идентификация.
Законът също така налага обща забрана за всякакви приложения на изкуствен интелект, които се считат за „неприемливи“ от гледна точка на тяхното ниво на риск.
Приложенията с неприемлив риск включват системи за „социално оценяване“, които класират гражданите въз основа на обобщаване и анализ на техните данни, прогнозна дейност и използване на технологии за емоционално разпознаване на работното място или в училищата.
Какво означава това за американските технологични гиганти
Американски гиганти като Microsoft, Google, Amazon, Apple, и Meta агресивно си партнират и инвестират милиарди долари в компании, за които смятат, че могат да бъдат водещи в областта на изкуствения интелект на фона на световната лудост около технологията.
Платформите в облака, като Microsoft Azure, Amazon Web Services и Google Cloud, също са от ключово значение за подпомагане на разработването на AI, като се има предвид огромната изчислителна инфраструктура, необходима за обучение и работата на моделите на изкуствения интелект.
В това отношение големите технологични гиганти несъмнено ще бъдат сред най-силно засегнатите в рамките на новите правила.
„Законът има последици, които далеч надхвърлят границите на ЕС. Той се отнася за всяка компания, която извършва някаква дейност или има някакво въздействие в ЕС, което означава, че Законът вероятно ще се отнася за вас, независимо къде се намирате“, заяви пред CNBC Чарли Томпсън, старши вицепрезидент за EMEA и LATAM на компанията за корпоративен софтуер Appian.
„Това ще доведе до много по-строг контрол върху технологичните гиганти, когато става въпрос за техните операции на пазара на ЕС и използването на данни на граждани на ЕС“, добави Томпсън.
Meta вече ограничи наличието на модела си за изкуствен интелект в Европа поради регулаторни опасения – въпреки че този ход не се дължи непременно на Закона.
Компанията майка на Facebook заяви, че няма да направи моделите си LLaMa достъпни в ЕС, позовавайки се на несигурността относно това дали те отговарят на Общия регламент за защита на данните на ЕС, или GDPR.
Преди това на компанията беше наредено да спре да обучава моделите си по публикации от Facebook и Instagram в ЕС поради опасения, че това може да наруши GDPR.
Как се третира генеративният AI?
Той е обозначен в Закона като пример за изкуствен интелект с „общо предназначение“. Този етикет се отнася до инструменти, предназначени да изпълняват широк спектър от задачи на подобно ниво или дори повече от човек.
Моделите на изкуствен интелект с общо предназначение включват, но не се ограничават до GPT на OpenAI, Gemini на Google и Claude на Anthropic. За тези системи Законът за изкуствения интелект налага строги изисквания, като спазване на законодателството на ЕС в областта на авторското право, публикуване на информация за прозрачността на начина на обучение на моделите, както и провеждане на рутинни тестове и адекватна защита на киберсигурността.
Не всички модели се третират еднакво. Разработчиците на изкуствен интелект заявиха, че ЕС трябва да гарантира, че тези с отворен код, които са безплатни за обществеността и могат да се използват за създаване на персонализирани приложения за AI, не са строго регулирани.
Примери за модели с отворен код са LLaMa на Meta, Stability AI на Stability Diffusion и 7B на Mistral.
ЕС определя някои изключения за моделите с отворен код за генеративен изкуствен интелект. Но за да получат право на освобождаване от правилата, доставчиците на софтуер трябва да направят своите параметри публично достъпни и да дадат възможност за „достъп, използване, модифициране и разпространение на модела“.
Какво ще стане, ако правилата бъдат нарушени
Нарушителите на Закона на ЕС за изкуствения интелект могат да понесат глоби от 35 млн. евро или 7% от глобалните им годишни приходи – в зависимост от това коя сума е по-висока, до 7,5 млн. евро или 1,5% от глобалните им годишни приходи. Размерът на санкциите ще зависи от нарушението и размера на компанията.
Това е повече от глобите, възможни съгласно GDPR, строгия европейски закон за защита на личните данни. За нарушения на GDPR дружествата са заплашени от глоби до 20 млн. евро или 4% от годишния глобален оборот.
Надзорът върху всички модели на AI, които попадат в обхвата на закона – включително системите с общо предназначение, ще се осъществява от Европейската служба за изкуствен интелект, регулаторен орган, създаден от ЕК през февруари 2024 г.
Джамил Джива, глобален ръководител на отдела за управление на активи във финтех компанията Linedata, заяви пред CNBC, че ЕС „разбира, че трябва да удари компаниите нарушители със значителни глоби, ако иска регулациите да имат ефект“.
„Подобно на начина, по който GDPR показа как ЕС може да упражни регулаторно влияние, за да наложи най-добрите практики за защита на личните данни на глобално равнище, със Закона за AI блокът отново се опитва да повтори това“, допълва Джива.
Ограниченията върху системите с общо предназначение ще започнат да се прилагат едва 12 месеца след влизането в сила на Закона. На генеративните системи за AI, които са налични на пазара - като ChatGPT на OpenAI и Gemini на Google, се предоставя „преходен период“ от 36 месеца, за да приведат системите си в съответствие с изискванията.