AI-МОДЕЛИТЕ ГЕНЕРИРААТ НЕТОЧНИ СОДРЖИНИ Во новиот извештај на Kurzgesagt се говори за системско „загадување“ на дигиталното знаење

AI моделите звучат убедливо дури и кога грешат, што создава лажна сигурност кај корисниците.

AI-МОДЕЛИТЕ ГЕНЕРИРААТ НЕТОЧНИ СОДРЖИНИ Во новиот извештај на Kurzgesagt се говори за системско „загадување“ на дигиталното знаење

Вештачката интелигенција за кратко време стана најмасовната алатка за создавање содржини, но со нејзината експанзија расте и загриженоста дека интернетот се полни со непроверливи и неточни информации. На тоа предупредува и новиот видео-извештај на Kurzgesagt, кој говори за системско „загадување“ на дигиталното знаење.

Половина од интернет-сообраќајот веќе го создаваат ботови, а многу AI-модели генерираат уверливи, но неточни содржини. Тестовите на Kurzgesagt со материјал за смеѓите џуџиња покажале дека околу 20% од информациите се погрешни или измислени, а дел од линковите водат до вештачки креирани веб-страници со дезинформации. Овие неточности потоа се шират во нови видеа и текстови, создавајќи ефект на „снежна топка“.

AI моделите звучат убедливо дури и кога грешат, што создава лажна сигурност кај корисниците. Истражувањата покажуваат драматичен пад на довербата во LLM-моделите, но интернетот продолжува да се преполнува со AI-содржини. Проблемот навлегува и во науката – анализи на научни трудови покажуваат се поголема застапеност на AI-стилови и манипулации со скриени пораки во документи.

Како што AI-содржините се користат за тренинг на нови модели, системот се „самоконтаминира“, што води до уште помала точност. Студиите укажуваат и на ограничена креативност на моделите.

Kurzgesagt предупредува дека, ако трендот продолжи, интернетот ќе биде преплавен со „евтини и брзи“ содржини кои го разнишуваат колективното знаење и дигиталната култура.

CATEGORIES
Share This