Tədqiqat: Süni intellekt köməkçiləri xəbər məzmunlarını səhv təqdim edir


Avropa Yayım Birliyi (EBU) və BBC tərəfindən yayımlanan yeni bir tədqiqat aparıcı süni intellekt köməkçilərinin xəbər məzmunlarını demək olar ki, hər iki haldan birində yanlış çatdırdığını üzə çıxarıb.

14 dildə aparılan araşdırma zamanı ChatGPT, Microsoft Copilot, Google GeminiPerplexity kimi süni intellekt sistemlərinin 3 min müxtəlif xəbər sualına verdiyi cavablar dəqiqlik, mənbə göstərilməsi və fikir–fakt ayrımı baxımından qiymətləndirilib.

Nəticələrə görə, cavabların 45 faizində ən azı bir ciddi səhv, 81 faizində isə hər hansı bir problem aşkarlanıb.

Tədqiqat göstərib ki, süni intellekt köməkçiləri xüsusilə xəbər mənbələrini düzgün şəkildə göstərməkdə çətinlik çəkirlər. Cavabların üçdə birində natamam, yanıltıcı və ya səhv mənbə göstərilməsi qeydə alınıb.

Google-un Gemini köməkçisində bu göstərici 72 faizə qədər yüksəlib, digər bütün platformalarda isə 25 faizdən aşağı olub. Bundan əlavə, bütün cavabların təxminən 20 faizində köhnəlmiş və ya yanlış məlumat tapılıb.

Google Gemini-nin istifadəçi rəyləri əsasında təkmilləşdirilməyə davam etdiyini bildirib. OpenAIMicrosoft isə daha əvvəl halusinasiyalar adlanan – süni intellektin yanlış və ya uydurma məlumat yaratması problemini həll etmək üçün işlər gördüklərini açıqlamışdılar.

Perplexity isə “Dərin Araşdırma” (Deep Research) rejiminin 93,9 faiz dəqiqlik nisbətinə malik olduğunu iddia edir.

Araşdırmada Gemini-nin birdəfəlik elektron siqaretlərlə bağlı bir qanunu səhv şəkildə təqdim etdiyi, ChatGPT-nin isə Papa Fransiskin ölümündən aylar sonra hələ də vəzifədə olduğunu bildirdiyi nümunələr yer alıb.

Tədqiqatda Kanada CBC/Radio-Canada ilə yanaşı Fransa, Almaniya, İspaniya, Ukrayna, Böyük Britaniya və ABŞ da daxil olmaqla 18 ölkədən 22 ictimai yayım qurumu iştirak edib.

EBU-nun Media direktoru Jan Filip De Tender nəticələrlə bağlı açıqlamasında bildirib ki, insanlar nəyə inanacaqlarını bilməyəndə, heç nəyə inanmağa meylli olurlar, bu isə demokratik iştirakçılığı zəiflədə bilər.

EBU süni intellekt şirkətlərini xəbərlərlə bağlı cavablarında daha şəffaf və məsuliyyətli olmağa çağırıb və qeyd edib ki, xəbər təşkilatlarında səhvləri aşkarlayıb düzəltməyə imkan verən mexanizmlər mövcuddursa, eyni məsuliyyət süni intellekt köməkçilərinə də aid olmalıdır.






AFN.az
Redaksiyamızla əlaqə: tel; 070 372 99 90, E-mail:office@afn.az



menyu
menyu