AI-МОДЕЛИТЕ ГЕНЕРИРААТ НЕТОЧНИ СОДРЖИНИ Во новиот извештај на Kurzgesagt се говори за системско „загадување“ на дигиталното знаење
AI моделите звучат убедливо дури и кога грешат, што создава лажна сигурност кај корисниците.

Вештачката интелигенција за кратко време стана најмасовната алатка за создавање содржини, но со нејзината експанзија расте и загриженоста дека интернетот се полни со непроверливи и неточни информации. На тоа предупредува и новиот видео-извештај на Kurzgesagt, кој говори за системско „загадување“ на дигиталното знаење.
Половина од интернет-сообраќајот веќе го создаваат ботови, а многу AI-модели генерираат уверливи, но неточни содржини. Тестовите на Kurzgesagt со материјал за смеѓите џуџиња покажале дека околу 20% од информациите се погрешни или измислени, а дел од линковите водат до вештачки креирани веб-страници со дезинформации. Овие неточности потоа се шират во нови видеа и текстови, создавајќи ефект на „снежна топка“.
AI моделите звучат убедливо дури и кога грешат, што создава лажна сигурност кај корисниците. Истражувањата покажуваат драматичен пад на довербата во LLM-моделите, но интернетот продолжува да се преполнува со AI-содржини. Проблемот навлегува и во науката – анализи на научни трудови покажуваат се поголема застапеност на AI-стилови и манипулации со скриени пораки во документи.
Како што AI-содржините се користат за тренинг на нови модели, системот се „самоконтаминира“, што води до уште помала точност. Студиите укажуваат и на ограничена креативност на моделите.
Kurzgesagt предупредува дека, ако трендот продолжи, интернетот ќе биде преплавен со „евтини и брзи“ содржини кои го разнишуваат колективното знаење и дигиталната култура.


