Безопасно ли е да споделяте лична информация с чатбот?
Представете си, че сте вкарали бележките си от среща с рентгенолог в AI чатбот и сте го помолили да ги обобщи.
По-късно непознат човек подканя същия инструмент да го просвети за опасенията му, свързани с рака, и част от личния ви разговор се изплюва на този потребител под формата на отговор.
Опасенията за подобни потенциални нарушения на неприкосновеността на личния живот са актуални за много хора, тъй като популярността на чатботовете се разпространява все повече.
Големият въпрос тук е: Безопасно ли е да се споделя лична информация с тези чатботове?
Краткият отговор е, че винаги съществува риск споделената от вас информация да бъде разкрита по някакъв начин. Но има начини тази опасност да бъде ограничена, според анализ на The Wall Street Journal.
За да се разберат мащабите на рисковете, е полезно да се помисли за това как тези инструменти се "обучават" - как първоначално се захранват с огромни количества информация от интернет и други източници и могат да продължат да събират данни от взаимодействията си с потребителите, за да станат по-умни и по-точни.
В резултат на това, когато зададете въпрос на AI чатбот, неговият отговор се основава отчасти на информация, която включва материали, датиращи от много преди да има правила за използването на данни в интернет и поверителността. А още по-старият изходен материал е пълен с лична информация на хората, която е разпръсната из мрежата, коментира WSJ.
Това оставя много възможности поверителните данни да бъдат включени в обучителните материали на различните инструменти с изкуствен интелект- информация, която може неволно да се появи в разговор на някой друг с чатбот или да бъде умишлено хакната или разкрита чрез хитри подкани или въпроси.
"Знаем, че те са били обучавани на огромно количество информация, която вероятно съдържа чувствителна информация", казва пред WSJ Рамая Кришнан, директор на факултета Technology and Security в Block Center.
Един от основните проблеми, според Кришнан, е, че никой не е направил независим одит, за да види с точност какви данни за обучение се използват.
"Голяма част от доказателствата идват от учени, които хакват предпазните огради и показват, че в данните за обучение има лична информация", казва той.
Професорът добавя, че след като инструментът за изкуствен интелект бъде внедрен, той обикновено продължава да се обучава на базата на взаимодействието на потребителите с него, като усвоява и съхранява всякаква информация, която те му подават.
На всичкото отгоре в някои случаи човешки служители четат разговори, които потребителите водят с чатботовете. Това се прави отчасти с цел да се улови и предотврати неподходящо поведение и да се подпомогне точността и контролът на качеството на моделите, казват експертите.
Притесненията не са теоретични
През март миналата година OpenAI разкрива уязвимост, която позволява на някои потребители на ChatGPT да виждат заглавията на чатовете на други потребители с инструмента и за кратко е разкрила данни, свързани с плащания, имейл адреси и последните четири цифри от номера на кредитни карти.
Това е станало в резултат на грешка в софтуер с отворен код, който е бил използван при обучението на инструмента, пояснява WSJ.
Чатботовете са податливи и към умишлени атаки. Изследователи наскоро откриха лесни начини за заобикаляне на защитните огради и разкриване на лична информация, събрана от големи езикови модели, включително имейли.
"Въпросът е, че тези софтуерни системи с изкуствен интелект са сложни и са изградени върху други компоненти, някои от които са с отворен код, и включват уязвимости, които могат да бъдат използвани", казва Ирина Райку, директор на програмата за интернет етика в Центъра за приложна етика Markkula към университета в Санта Клара.
Загрижеността за неприкосновеността на поверителната информация е достатъчно голяма, за да може няколко компании да ограничат или забранят използването на AI инструменти от служителите си по време на работа.
"Ако големите компании са загрижени за защитата на личната информация, ако не са сигурни какво се случва с техните данни, това ни подсказва, че трябва да сме предпазливи, когато споделяме нещо лично", отбелязва Райку.
"Няма какво да се направи за това, което вече е в моделите на чатботовете, но защо да рискувате личната ви информация да излезе наяве, като въведете нови данни като тези в модела?"
Създателите на AI инструментите са предприели някои стъпки за защита на поверителните данни на потребителите. Например, те могат да изключат опцията на ChatGPT да съхранява историята на чата им за неопределено време чрез много видим превключвател на началната му страница.
Това не е безотказна защита срещу хакери - сайтът казва, че все пак ще съхранява новите чатове на потребителите, които изберат тази опция, в продължение на 30 дни, но ясно посочва, че те няма да бъдат използвани за обучение на модела.
На този фон Bard изисква вход в Bard.Google.com, след което се следват няколко стъпки, за да се изтрие цялата дейност в чата.
Потребителите на Bing могат да отворят уебстраницата на чатбота, да прегледат историята на търсенията си в дясната част на страницата, след което да изтрият отделните разговори, които искат да премахнат. "В момента обаче потребителите не могат да деактивират историята на чатовете", казва говорител на Microsoft пред WSJ.
Но най-добрият начин за хората да се защитят, казват експертите, е да избягват споделянето на лична информация с технологията и да се оглеждат за определени червени знамена, когато разговарят с който и да е инструмент.
Индикаторите включват използването на чатбот, който няма известие за поверителност. "Това ви подсказва, че необходимото управление не е толкова зряло, колкото трябва да бъде", казва Доминик Лайпциг, партньор по въпросите на поверителността и киберсигурността в адвокатската кантора Mayer Brown.
Друг случай е, когато чатботът иска повече лична информация, отколкото е необходимо.
"Понякога, за да влезете в даден акаунт, трябва да споделите номера на акаунта или паролата си и да отговорите на някои лични въпроси и това не е необичайно", коментира Лайпциг. Тя също така пояснява, че не е разумно да обсъждате нещо лично с чатбот, за който никога не сте чували, тъй като цялата система може да се управлява от злонамерени хора.
Експертите предупреждават да не се въвеждат конкретни здравословни състояния или финансова информация в AI инструменти за общо ползване, тъй като повечето компании ясно посочват в условията си, че някои разговори могат да бъдат прочетени от човешки служители. "Струва ли си да рискувате информацията ви да излезе наяве, когато отговорът, който AI връща, може да е неточен така или иначе? Вероятно не", казва Райку.
Рамая Кришнан, позовавайки се на риска от хакери, предупреждава хората да помислят два пъти, преди да използват функцията на Bard, която позволява всичките ви имейли да бъдат прочетени и обработени от инструмента, така че той да разбере стила и тона ви на писане.
В крайна сметка това, което въвеждате в чатбота, изисква изчисляване на риска и възвръщаемостта, а нивото на комфорт на всеки ще бъде различно, отбелязва WSJ. Въпреки това експертите казват, че трябва поне да проверите два пъти условията за ползване и политиките за поверителност, за да разберете как ще бъдат използвани вашите данни.
"Авторитетните компании с генеративен интерфейс предприемат мерки за защита на потребителите", казва Лайпциг. Въпреки това, общото мнение на специалистите е, че винаги трябва да бъдете внимателни, преди да споделяте чувствителна информация с AI инструментите.