ChatGPT разполага с памет: Полезен събеседник или корпоративен шпионин?
OpenAI започва да внедрява дългосрочна памет в ChatGPT - функция, която поддържа спомен за това кой сте, какво работите и за какво обичате да си говорите.
Наречена просто Memory, това е функция за персонализиране на AI, която ускорява възможностите на инструмента.
Използвайки персонализираните инструкции на ChatGPT, човек може да каже на чатбота, че е технологичен журналист, който обича да сърфира, и той ще вземе предвид тази информация в бъдещите отговори.
Това е подобно на първа среща с човек, който не забравя подробностите от историите ви, отбелязва Wired.
Услугата също така ще запомни лични данни за потребителя, дори ако той не направи инструкция към чатбота да го направи.
Технологията ще събира и съхранява детайли в хода на разговорите.
Това ще работи както в безплатната GPT 3.5, така и в платената GPT 4 версия.
OpenAI казва, че паметта на ChatGPT е opt-in по подразбиране, което означава, че потребителят трябва активно да я изключи.
Архивите могат да бъдат изтрити във всеки един момент, както в настройките, така и като просто се инструктира инструмента да го направи.
След като паметта бъде премахната, тази информация няма да се използва за обучение на модела.
Въпреки това не е ясно колко точно от тези лични данни се използват за обучение на AI, докато някой разговаря с чатбота.
Изключването на функцията Memory не означава, че сте се отказали напълно от обучението на модела на OpenAI в чатовете си, за това има отделна опция за отказ.
Компанията също така твърди, че няма да съхранява определена чувствителна информация в Memory.
Ако кажете на ChatGPT паролата си (не правете това) или банковата си сметка (или това), паметта на приложението ще я пренебрегне.
Джоан Джанг, продуктов ръководител на компанията по поведението на моделите казва пред Wired, че OpenAI все още търси обратна връзка за това дали друга лична информация, като етническата принадлежност на потребителя, е твърде чувствителна.
"Смятаме, че има много полезни случаи за този пример, но засега сме обучили модела да се отклонява от проактивното запомняне на такава информация."
Въпреки това е лесно да се види как функцията Memory може да се обърка.
Например в случаи, в които потребителят е забравил, че някога е питал чатбота за ненасилствен начин за справяне със свекърва, само за да му бъде напомнено или да го видят други хора в бъдещ чат, посочва Wired.
Въпросът за това как паметта на ChatGPT обработва здравните данни също е отворен.
"Ние насочваме инструмента да не запомня определени здравни данни, но това все още е в процес на разработка", казва говорителят на OpenAI Нико Феликс.
Компанията също така не е първата организация, която си играе с паметта в генеративния AI.
Google наблегна на технологията multi-turn в Gemini 1.0, собствения си LLM.
Това означава, че можете да взаимодействате с инструмента, използвайки еднократен режим, или да проведете непрекъснат разговор, в който ботът помни контекста от предишни съобщения.
Компанията LangChain, разработва Memory модул, който помага на големи езикови модели да си припомнят предишни взаимодействия между крайния потребител и инструмента.
"Това може да бъде много мощно при създаването на уникални преживявания. Чатботът може да адаптира отговорите си към вас като личност въз основа на това, което знае", казва Харисън Чейс, главен изпълнителен директор на LangChain.
"Липсата на памет може да създаде неприятно изживяване. Никой не иска да повтаря отново и отново, че е вегетарианец, като пита чатбот за рецепти."
Крайната цел е една и съща: взаимодействието между човека и инструмента да се усеща толкова плавно, че потребителят лесно да забрави това, което чатботът може да запомни.
Това също така е от потенциална полза за предприятията, които внедряват тези инструменти и които може да искат да поддържат постоянни взаимоотношения с клиента от другата страна.
Лиъм Федъс, учен от OpenAI казва пред Wired, че паметта на ChatGPT далеч не се доближава до капацитета на човешкия мозък.