20-04-2026, 13:30

"Süni İntellekt Hallüsinasiyası": AI niyə yalan danışır?

  


Bəzən ChatGPT və ya digər süni intellektlər çox əminliklə tamamilə yanlış məlumatlar verirlər.

Buna texniki dildə "hallüsinasiya" deyilir. Bu, modelin növbəti sözü proqnozlaşdırarkən məntiqi əlaqəni itirməsi nəticəsində baş verir.


Pressline.az xeber verir ki, süni intellekt məlumat bazasında olmayan boşluqları doldurmaq üçün statistik ehtimallardan istifadə edir və bəzən "uydurur".

Bu, rəqəmsal dövrdə məlumatın doğruluğunu yoxlamağın (fact-checking) nə qədər vacib olduğunu göstərir.

Xəbər lenti