Няма да чуете за тях или да ги видите. Те напомнят за съществуването си в редки случаи и обикновено поводът е досаден – свалена е ваша публикация от социалните мрежи. Никой не знае защо извън общата формулировка за „нарушение на правилата на общността“. Но те са реални хора с много важна работа. Те са модераторите на съдържание в социалните мрежи. Просто казано – те са онези, които преценяват какво да не се появи във фийда ви. И често пъти плащат висока цена за това, което работят.

Обезглавявания, масови убийства, малтретиране на деца, реч на омразата. Това са ужасите, с които модераторите се занимават всеки ден, пише BBC. А проблемът с опасното съдържание в социалните мрежи става все по-сериозен. И технологичните компании са подложени на все по-силен натиск да го премахват.

Начините за това са два – човешка намеса, т.е. публикация, видео или снимка биват изтрити от модератор. Другият вариант е определено съдържание да бъде „маркирано“ от софтуер, базиран на изкуствен интелект. И въпреки че инвестициите в технологии са все по-сериозни, а използването им – все по-широко, последната дума за премахване на съдържание все още е на човек.

Често пъти модераторите работят за „трети страни“, т.е. те са служители на компании, които нямат общо със съответната социална мрежа. Обичайно те се намират далече от от централите на големите компании – понякога са в Европа, друг път в Африка. Хората, които разказват пред BBC какво е да си модератор, са от Източна Африка и до един са напуснали тази работа.

Историите им са брутални. Понякога дори толкова, че не могат да бъдат публикувани.

„Ако влезете в TikTok, ще видите забавни неща – например танцуващи хора, които изглеждат щастливи. Но аз всеки ден преглеждах стотици ужасяващи и травмиращи клипове“, казва един бивш модератор от Найроби.

Допълва, че е приемал работата си като нещо лично. И е разбирал, че съсипва психичното си здраве в името на безопасната среда в платформата.

И в момента има множество висящи граждански дела, заведени от бивши модератори срещу някогашните им работодатели. Те претендират за обезщетения с твърдението, че психичното им здраве е било увредено. В Африка дори бе създадена организация (нещо като синдикат) с цел защита на правата на такива хора.

„Единствената преграда между влизането в социална мрежа и гледането на видео с обезглавяване е седящият в офис човек някъде по света. Той гледа вместо вас“, казва Марта Дарк, ръководител на Foxglove, организация, която се защитава правата на работещи в технологичния сектор.

През 2020 г. Meta, собственик на Facebook и Instagram, се съгласява да плати 52 млн. долара обезщетения на бивши модератори, които претендират, че са развили психични проблеми покрай работата си.

Първоначалната инциатива за това дело е на Селена Скола, някогашен модератор. Тя описва хората като нея с формулировката „пазители на души“. Защо? Защото често пъти те са онези, които виждат последните мигове на други хора, чиито убийства са били записани. А после е направен опит да бъдат качени някъде из социалните мрежи.

Думата, която бившите модератори неизменно използват за някогашната си работа, е „травма“. Някои казват, че имат проблеми със съня, други – с храненето. Един разказва следното - негов колега изпадал в ужас, когато чуе бебешки плач. Не можел да общува със съпругата и децата си заради насилието, което трябвало да гледа всеки ден на работа.

Въпреки всичко това повечето такива хора не казват, че решението на тези проблеми е в цялостното автоматизиране на процеса чрез инструменти с изкуствен интелект. Нещо неочаквано, те заявяват, че се гордеят с това, което са правили, защото са осигурили безопасна среда в интернет за мнозина други. Те приемат себе си като спешна служба – полиция или медицинска помощ.

„Нито една секунда не беше пропиляна. Гордея се с всички, които бяха част от това“, казва бивш модератор, участвал в обучението на ChatGPT, за да бъде използван за блокиране на съдържание каквото самият той е преглеждал. В бъдеще технологията вероятно би могла да го замести.

Този инструмент може да идентифицира вредно съдържание на 90%, казва Дейв Уилнър, ръководител на отдела за безопасност на OpenAI.

„Когато разбрах, че ще проработи бях малко изненадан. Тези инструменти не се отегчават, не се шокират и не се уморяват“, казва той.

Не всички са убедени, че изкуственият интелект ще реши тези проблеми.

Според Пол Райли, предподавател в университета в Глазгоу, проблемът е доста по-сериозен.

„АI не е много прецизен инструмент. Може да доведе до прекомерно блокиране на съдържание, което пък води със себе си проблем за свободата на словото. Естествено, технологията може да пропусне нюанси, които човекът би забелязал. Хората-модератори са съществено важни за социалните мрежи. Проблемът е, че работата, която вършат, е ужасно вредна за самите тях“, казва той.

Какво мислят самите технологични компании?

От TikTok казват, че са наясно, че модерирането на съдържание е трудна задача. Затова се опитват да създадат по-добра работна среда, предлагат медицинска помощ на служителите си и добро заплащане. Освен това използват технология, която премахва голям обем вредно съдържание.

Meta твърди, че изисква от всички компании, с които работи, 24-часова услуга с обучени професионалисти. Те имат възможност да ползват различни инструменти, с които да замъгляват снимки и видеа, т.е. по този начин си спестяват донякъде гледането.