Можем ли да вярваме напълно на суперчатботовете?
Можем ли да вярваме на суперчатботовете? Този въпрос задават от The New York Times и описват как Джереми Хауърд, изследовател в областта на изкуствения интелект, запознава 7-годишната си дъщеря с онлайн чатбот, който направи фурор през последните седмици - ChatGPT.
Негов създател е OpenAI, една от най-амбициозните лаборатории за изкуствен интелект в света. Той е обучен с огромна база данни и може да отговаря на всевъзможни въпроси от различни сфери.
В резултат на експеримента Хауърд достига до едно заключение – чатботът може да научи дъщеря му на много неща и на едно най-важно - не вярвай на всичко, което ти казват.
OpenAI е сред многото компании, академични лаборатории и независими изследователи, които работят за създаването на по-усъвършенствани чатботове. Тези системи не могат да разговарят точно като човек, но все по-често започват да се доближават близо до това ниво. Освен това те могат да извличат и препакетират информация със скорост, която хората никога не биха могли да постигнат. Реално, суперчатботовете могат да се разглеждат като цифрови асистенти - като Siri или Alexa - които разбират какво търсите, знаят къде да го намерят и ви го предоставят.
След пускането на ChatGPT – платформа, използвана вече от повече от един милион души - много експерти са на мнение, че тези нови чатботове са готови да преоткрият и дори да заменят интернет търсачки като Google и Bing. Те могат да предоставят информация в кратки изречения, а не в дълги списъци от връзки, да обясняват понятията по разбираем за хората начин. И не на последно място, могат да предоставят факти, като в същото време генерират бизнес планове, теми за курсови работи и то от нулата.
Новите чатботове правят това с пълна увереност, но не винаги казват истината и понякога се провалят дори в простата аритметика, предупреждават изследователи на изкуствения интелект, цитирани от The New York Times. Според тях тъй като технологията все още продължава да се усъвършенства, някои хора биха могли да я използват в момента, за да създават и разпространяват неистини.
Възходът на чатботовете....
Компанията от Сан Франциско има много амбициозни разработки. ChatGPT, например, е иновативен чатбот, който може да разговаря почти като човек и има много повече знания от повечето хора. Системата DALL-E 2 пък ви позволява да създавате цифрови визуални изображения чрез текстово описание. GPT-3, на свой ред, може да пише, да спори и дори да кодира.
Наскоро Google също попадна под светлините на прожекторите с разговорния си изкуствен интелект LaMDA (Language Model for Dialogue Applications), след като инженер на компанията обяви, че системата е развила разум.
Но Аарон Марголис, специалист по данни, който е един от малкото хора извън Google, на които е било позволено да използват LaMDA чрез експериментално приложение, наречено AI Test Kitchen, поставя под въпрос тези възможности.
Пред NYT той разказва, че е помолил и LaMDA, и ChatGPT да разговарят с него, сякаш е Марк Твен. LaMDA описва среща между Твен и Леви Щраус и казва, че писателят е работил за бащата на дънките, докато е живял в Сан Франциско в средата на XIX век. Дори да изглежда вярно на пръв поглед, защото двамата са обитавали града по едно и също време, всъщност те никога не са работили заедно.
Учените наричат този проблем "халюцинация". Подобно на добрия разказвач, чатботовете имат свойството да вземат наученото и да го претворяват в нещо ново - без да се съобразяват с това дали е вярно, смята Марголис.
LaMDA е това, което изследователите на изкуствения интелект наричат невронна мрежа - система, моделирана по подобие на тази на невроните в човешкия мозък. Това е същата технология, която превежда между български и английски език в услуги като Google Translate и идентифицира пешеходци, докато самоуправляващите се автомобили се движат по улиците.
Преди пет години изследователи от Google и лаборатории като OpenAI започнаха да проектират невронни мрежи, които анализират огромни количества цифров текст, включително книги, статии в Wikipedia, новини и онлайн чатове. Учените ги наричат "големи езикови модели". Идентифицирайки милиарди различни модели на начина, по който хората свързват думи, цифри и символи, тези системи се научиха сами да генерират текст. В крайна сметка, технологията вече може да имитира написаното от хората и да комбинира различни понятия.
В ChatGPT OpenAI работи за усъвършенстване на технологията. Тя не се справя със свободните разговори толкова добре, колкото LaMDA на Google, но пък е проектирана да работи по-скоро като дигитален асистент. Подобно на LaMDA, ChatGPT е обучен на базата на огромни обеми текст, извлечен от интернет.
....идва с притеснения
Но дори създателите на тези иновативни чатботове като OpenAI акцентират, че методът не е съвършен. Компанията предупреди тези, които използват ChatGPT, че "понякога може да генерира невярна информация" и "да създава вредни инструкции или пристрастно съдържание", припомня още New York Times.
Google, Meta и други компании също работят за решаването на проблемите с достоверността. Meta дори наскоро премахна онлайн визуализация на своя чатбот Galactica, защото той многократно генерираше невярна и пристрастна информация.
Експертите пък отдавна предупреждават, че компаниите не контролират на 100% съдбата на тези технологии. Системи като ChatGPT, LaMDA и Galactica се основават на идеи, научни статии и компютърен код, които се разпространяват свободно от години в интернет. И дори оттук нататък технологичните гиганти да развият технологията с големи темпове, техните вече пуснати в обръщение системи са широко разпространени и никой не може да попречи на зловредни играчи да ги използват за разпространение на дезинформация.
Така че, едно наум!