Години наред най-простият израз за одобрение в дигиталния свят беше Like бутонът. Едно бързо кликване – и алгоритмите вече знаят какво харесваме, платформите започват да ни предлагат още подобни продукти, а създателите на съдържание получават сигнал, че са уцелили „право в десетката“.

Днес обаче, когато изкуственият интелект превзема света, за никого не е изненада, че и бутонът за харесване може да се промени – или напълно да бъде заличен, пише WIRED.

Макс Левчин, съосновател на PayPal и главен изпълнителен директор на Affirm, вижда в Like бутона неизползвано до момента съкровище с огромен потенциал. По негово мнение, именно масата от данни за това какво хората харесват онлайн може да се превърне във важен актив за AI обучение.

„Едно от най-ценните неща, които Facebook притежава, е тази планина от данни за харесванията. Да знаеш какво съдържание харесват хората и да го използваш за трениране на модели е може би едно от най-ценните неща в интернет днес“, казва Левчин.

Причината за това е доста проста – при класическото машинно обучение компютърът се стреми да оптимизира зададена цел чрез усилващо обучение (reinforcement learning), но често стига до странни, неочаквани и дори понякога – нежелани резултати.

За да се намеси човешката логика и преценка, разработчиците използват така нареченото обучение чрез човешка обратна връзка (RLHF). Проблемът идва от цената на това „удоволствие“, тъй като то изисква ангажиране на реални хора, които ръчно дават обратна връзка. А това не е лесно за постигане.

Тук блесва и Like бутонът. Ако данните от него могат да бъдат използвани като масов източник на човешки предпочитания, той се превръща в своеобразен „стандарт“ за RLHF, а това го прави стратегически актив от ново поколение.

Но колкото и парадоксално да звучи, докато Левчин вижда бъдещето му като хранилище на стойностна информация за AI обучение, някои други смятат, че самият изкуствен интелект ще го направи излишен.

AI вече променя начина, по който се формират и анализират данните и предпочитанията на потребителите. Социалните мрежи използват и създават алгоритми, които не просто анализират харесванията, но и предвиждат кои публикации ще бъдат харесани – понякога още преди самият потребител да е осъзнал какво му харесва.

Пример за това може да бъде тест на Facebook от началото на 2024 г., при който AI е използван за оптимизиране на алгоритъма за препоръки на видеа под формата на Reels. Целта е по-добро предвиждане на следващото гледано видео. Резултатът, естествено, е положителен за платформата – повече време, прекарано в гледане на видеа.

Съоснователят на YouTube Стив Чен също не е сигурен дали в бъдеще изобщо ще има нужда от Like бутона. „Понякога се чудя дали ще е нужен, когато AI може с почти 100% точност да предвижда какво иска да гледа един човек, само на база предишното му поведение“, казва той.

Все пак Чен признава, че има ситуации, в които този бутон все още ще бъде полезен. Например, когато потребителят търси друго съдържание – заради промяна в настроението или други обстоятелства.

„Има дни, в които просто искам да гледам нещо с децата си, например“, добавя той.

Още една причина за възможната устойчивост на Like-а е ролята му в свързването на три основни участника в дигиталната екосистема: потребител, създател на съдържание и рекламодател. С едно кликване потребителите изразяват емоция, дават обратна връзка на автора и едновременно изпращат сигнал към рекламния пазар за степента на ангажираност.

Днес все по-голяма част от съдържанието, което събира харесвания в социалните мрежи – независимо дали става въпрос за текст, изображения или видео формат – вече е генерирано от изкуствен интелект. Това повдига поредния въпрос: дали Like бутонът изобщо е релевантен, когато става въпрос за съдържание, което не е генерирано от хора… а и самите харесвания може би не идват от хора?

Първоначалната му функция – да насърчава потребителите да създават съдържание – губи тежест, ако платформите вече разчитат на AI, за да произвеждат такова.

Но какво ще се случи, ако реалните хора просто престанат да публикуват?

Тук идва и един по-сериозен въпрос, обвързан с автентичността на съдържанието. По време на шоуто в полувремето на Super Bowl 2024 Алиша Кийс изпълнява песента If I Ain’t Got You на живо – и допуска лек фалшив тон.

Минути по-късно видеото е качено в YouTube, но грешката липсва. Автоматично коригирана, без никакво съобщение. Малка манипулация, но напълно достатъчна, за да предизвика вълна от коментари.

Ако AI може да коригира фалшива нота, той също толкова лесно може да клонира и глас. И точно това се случва.

През януари 2024 г. американската Федерална комисия по комуникации (FCC) забранява използването на изкуствен интелект за клониране на гласове с цел измама – след като са разпратени автоматични обаждания с AI генериран глас на президента Джо Байдън.

„Независимо кой е любимият ви политик или колко близки сте с роднините си, вече всички можем да се превърнем в мишена на фалшиви обаждания“, предупреждава председателят на FCC Джесика Розенуорсел.

Но не става въпрос само за измами.

Все по-често социалните мрежи се пълнят с инфлуенсъри, които... не съществуват.

Аитайна Лопес, например, е „испанска“ певица и моден инфлуенсър с над 310 000 последователи в Instagram. Работи с марки като Victoria’s Secret. Но не ѝ трябват нито дрехи, нито козметика, защото Аитайна не е човек. Тя е AI създание, продукт на рекламна агенция, която решава да замени трудните за управление реални инфлуенсъри с виртуални такива.

С нарастващото присъствие на изкуствения интелект често се случва фалшиви инфлуенсъри и ботове да харесват, коментират и споделят, а точно тук възниква и логичният въпрос: ако съдържанието не е човешко, а и лайковете не са от хора, тогава какъв е смисълът?

Пример за това бъдеще е CarynAI – виртуална версия на реален Snapchat инфлуенсър, която предлага платена услуга за личен чат ($1 на минута), базирана на GPT-4. Потребителите си говорят с AI, обучен по архива на реалната Керин Маржъри.

Възможен е сценарий, в който съдържанието е генерирано от изкуствен интелект, харесванията – също, а взаимодействията се случват между програми, без реални хора. И тогава изниква един фундаментален въпрос: как ще разпознаваме кое е реално и кое – не?