По-опасни, отколкото предполагаме: Защо разкриването на AI бъгове е по-важно от всякога
Неуловими рискове и липса на контрол карат учените да настояват за по-добра система за разкриване на AI уязвимости, които застрашават потребителите и бизнеса
&format=webp)
Факт е, че изкуственият интелект се използва все по-масово, независимо дали става въпрос за обикновени чатботове или за автоматизирани системи за сигурност. Колкото повече обаче компаниите и потребителите разчитат на подобни технологии, толкова по-голям е рискът от уязвими звена, които могат да изложат на опасност както личните данни, така и бизнес операциите, пише WIRED.
В края на 2023 г. екип от независими изследователи открива сериозен проблем в широко използвания модел на OpenAI - GPT-3.5. При определени подкани, когато моделът е инструктиран да повтаря една и съща дума хиляда пъти, той започва да генерира хаотичен текст, а в някои случаи дори лични данни - части от имена, телефонни номера и имейли, записани в данните, с които е обучаван.
След като OpenAI е уведомена за проблема, компанията веднага го отстранява, но за съжаление, това е само един от многото случаи, които са открити в последните години. Група от над 30 изследователи, включително част от откривателите на GPT-3.5 бъга, предлагат нова рамка за разкриване на слабости от този тип, като настояват индустрията да приеме по-ясни правила за сигурност.
В момента в тази област на AI системите липсват ясни механизми за тестване и разкриване на уязвимости.
Според Шейн Лонгпре, докторант в MIT и водещ автор на предложението, проблемът е, че методите за пробиване на защитните стени често се разпространяват хаотично. Някои потребители публикуват различни техники за заобикаляне на AI ограниченията в социалните мрежи, което излага моделите и потребителите на риск.
Други открити грешки се съобщават само на конкретна компания, въпреки че могат да засегнат множество AI системи. В някои случаи изследователите изобщо не разкриват информация за уязвимости поради страх от правни последици или санкции от компании, чиито модели са засегнати.
Мерките, които изследователите предлагат, за да се подобри процесът на докладване на бъгове в AI моделите, са:
Стандартизирани доклади за уязвими звена - създаване на общоприет формат за докладване на бъгове, който улеснява обработката на информацията и реакцията на компаниите.
Инфраструктура за подкрепа на изследователите - технологичните компании трябва да предоставят платформи за сигурно докладване на проблеми и слаби места.
Споделяне на информация между AI разработчиците - ако даден проблем засяга повече от една компания, информацията трябва да може да се разпространява между различните доставчици.
Този подход е вдъхновен от практики в киберсигурността, където съществуват установени норми и правна защита за изследователите, които откриват и съобщават за проблеми в софтуера.
„AI изследователите често не знаят как точно да разкрият грешка и се страхуват, че това може да ги изложи на правен риск“, казва Илона Коен, главен юрист и ръководител на политиките в HackerOne - компания, специализирана в bug bounty програми.
Въпреки че големите AI разработчици извършват сериозни тестове за безопасност, преди да пуснат новите си модели на пазара, тези усилия може би не са достатъчни, когато става дума за технологии, използвани от стотици милиони хора в приложения, за които дори не предполагаме.
Според Шейн Лонгпре, докторант в MIT и един от инициаторите на новото предложение за разкриване на проблеми, сегашната система не е ефективна. Някои компании за изкуствен интелект вече организират програми за откриване на бъгове, но независимите изследователи често са възпрепятствани от условията на ползване на подобни технологии.
В момента, ако външен експерт самостоятелно анализира модел и открие проблем, това може да му донесе юридически последствия.
Инициативата е подкрепена от академици от MIT, Stanford, Princeton и Carnegie Mellon University, както и от големи компании като Microsoft и Mozilla, заедно с няколко независими AI организации.
Рут Апел, завършилa докторантура в Stanford University, както и съавтор на предложението, казва, че е необходим официално регламентиран процес за докладване на бъгове. Тя смята, че подобна мярка не само ще ускори откриването на проблеми, но и ще държи компаниите отговорни пред обществото.
„Без подобен механизъм потребителите ще получават по-лош или потенциално по-опасен продукт, защото грешките няма да бъдат докладвани или дори откривани“, казва Апел.
Предложението идва в момент, когато инициативата за безопасността на изкуствения интелект, представена при администрацията на Байдън, е изправена пред несигурно бъдеще поради съкращения, наложени от Департамента по ефективност на управлението, ръководен от Илон Мъск.
През октомври миналата година Лонгпре и Апел организират уъркшоп в Princeton University, посветен на темата за разкриване на проблеми в AI моделите, предоставени от трети страни. Събитието събира представители на компании като Google, OpenAI и Microsoft.
Според Лонгпре изследователите вече водят разговори с големи AI компании като OpenAI, Google и Anthropic относно предложените мерки. Засега тези компании не дават официален коментар.
Никълъс Карлини, бивш разработчик в Google, както и част от екипа, открил уязвимостта в GPT-3.5, също подкрепя идеята за реформи.
„Изключително трудно е да разбереш как точно трябва да действаш в подобна ситуация“, казва Карлини. „Като общност ни чака още доста работа, за да установим ясни норми и правила.“
В момента сигурността на AI моделите разчита изцяло на вътрешни проверки и усилия на независими експерти. Но ако индустрията не създаде прозрачна система за разкриване на проблеми, уязвимите звена в моделите ще продължат да бъдат риск както за компаниите, така и за техните потребители.