МНОЗИНСТВО ШТО НЕ ПОСТОИ – Како вештачката интелегенција може да манипулира со јавното мислење
Луѓето по природа се склони кон конформизам - идеална цел за дигитални манипулации

Социјалните мрежи наскоро би можеле да се соочат со нова и значително пософистицирана закана – роеви на вештачка интелигенција што ќе шират дезинформации, ќе вознемируваат корисници и ќе влијаат врз демократските процеси. На ова предупредуваат научници, истакнувајќи дека ваквите системи имаат потенцијал радикално да го променат начинот на кој се обликува јавното мислење во дигиталниот простор.
Во коментар објавен на 22 јануари во научното списание Science се наведува дека таканаречените „роеви на вештачка интелигенција“ би можеле да станат ново моќно оружје во современите информативни војни.
За разлика од класичните ботови, кои најчесто се едноставни и релативно лесни за откривање, овие напредни системи се способни убедливо да го имитираат човечкото однесување. Тие можат да се прилагодат на онлајн-заедниците во кои се појавуваат, да комуницираат со вистински корисници и да создадат впечаток на спонтано и автентично дејствување.
Како резултат, кај корисниците може да се создаде илузија дека се формира широко прифатено мнозинско мислење, иако во реалноста станува збор за внимателно оркестриран процес управуван од вештачка интелигенција.
Замислете онлајн-заедница во која ставовите одеднаш почнуваат брзо да се усогласуваат околу теми што до неодамна предизвикувале остри поделби. Луѓето, по правило, имаат тенденција да го следат она што го перципираат како доминантно мислење. Проблемот настанува кога тоа „мнозинство“ всушност не постои, туку е вештачки создадено од рој на дигитални агенти што дејствуваат во интерес на политички субјекти, корпорации или дури држави.
Коавторот на коментарот, Јонас Кунст, професор по комуникации на Норвешкото бизнис училиште BI, објаснува дека луѓето по природа се склони кон конформистичко однесување. Прифаќањето на ставовите на мнозинството често им дава чувство на сигурност, припадност и социјална прифатливост и дури и кога не се целосно уверени во нивната исправност.
Иако ретко го признаваат тоа, многумина веруваат дека мислењето што го дели мнозинството има поголема вредност. Токму оваа човечка слабост, предупредува Кунст, роевите на вештачка интелигенција би можеле исклучително ефикасно да ја злоупотребат.
Манипулацијата со јавното мислење не е единствената опасност. Истите системи би можеле да се користат и за организирано онлајн-вознемирување. Корисници што отстапуваат од доминантниот наратив би можеле да станат мета на координирани напади, не од вистински луѓе, туку од рој на вештачка интелигенција.
Таквите напади лесно би можеле да прераснат во форма на дигитален линч, кој би траел сè додека целта не биде замолчена или целосно оттурната од платформата.

