В четвъртък Европейският съюз публикува първия си проект на Кодекс на практиките за моделите с изкуствен интелект с общо предназначение (GPAI). Документът, който ще бъде финализиран чак през май, съдържа насоки за управление на рисковете и дава на компаниите план за спазване на изискванията и избягване на големи санкции.

Законът за изкуствения интелект на ЕС (AI Act) влезе в сила на 1 август, но той остави възможност за определяне на спецификите на разпоредбите за GPAI в бъдеще. Този проект е първият опит да се изясни какво се очаква от тези по-усъвършенствани модели, като се дава време на заинтересованите страни да представят обратна връзка и да ги усъвършенстват, преди да влязат в сила.

GPAI са тези модели, които са обучени с обща изчислителна мощност над 10²⁵ FLOPs. Сред компаниите, които се очаква да попаднат в обхвата на насоките на ЕС, са OpenAI, Google, Meta, Anthropic и Mistral. Но този списък може да се разшири.

Документът разглежда няколко основни области за създателите на GPAI: прозрачност, спазване на авторските права, оценка на риска и намаляване на техническите/управленските рискове. Този проект от 36 страници обхваща много теми (и вероятно ще бъде разширен още много преди да бъде финализиран), но няколко акцента се открояват.

Кодексът набляга на прозрачността при разработването на AI и изисква от компаниите, занимаващи се с технологията, да предоставят информация за уеб обхождащите програми, които са използвали за обучение на моделите си - ключов проблем за притежателите на авторски права и творците. Разделът за оценка на риска има за цел да предотврати киберпрестъпленията, дискриминацията и загубата на контрол върху AI.

От създателите на модели се очаква да приемат Рамка за безопасност и сигурност (SSF), за да разбият своите политики за управление на риска и да го намалят пропорционално на системните рискове. Правилата обхващат и технически области като защита на данните на моделите, осигуряване на безотказен контрол на достъпа и постоянна преоценка на тяхната ефективност. И накрая, разделът за управление се стреми към отчетност в самите дружества, като изисква постоянна оценка на риска и привличане на външни експерти, когато е необходимо.

Подобно на други разпоредби на ЕС, свързани с технологиите, компаниите, които нарушават Закона за изкуствения интелект, могат да очакват строги санкции. Те могат да бъдат глобени с до 35 млн. евро или със 7% от глобалната им годишна печалба, в зависимост от това коя от двете суми е по-висока.

Заинтересованите страни се приканват да изпратят отзиви чрез специалната платформа Futurium до 28 ноември, за да помогнат за усъвършенстването на следващия проект за законодателство в сферата на AI. Очаква се правилата да бъдат финализирани до 1 май 2025 г.