ШІ не розрізняє факти та переконання: дослідження виявило серйозну проблему.

ШІ не розрізняє факти та переконання: дослідження виявило серйозну проблему
ШІ не розрізняє факти та переконання: дослідження виявило серйозну проблему

Як повідомляє Korrespondent.net: Сучасні мовні моделі, такі як GPT-4o, все ще мають проблеми з розрізненням фактів і особистих переконань користувачів, згідно з повідомленням TechXplore.

Результати дослідження мовних моделей

Команда експертів протестувала 24 різні мовні моделі, серед яких DeepSeek, ChatGPT, Claude, Llama, Gemini та Mixtral. Вони проаналізували понад 13 тисяч запитів, щоб оцінити, як моделі реагують на факти та суб’єктивні висловлювання, як правдиві, так і помилкові.

Фото: Nature Machine Intelligence Ефективність ШІ у перевірці (ліворуч) та підтвердженні (праворуч) завдань з переконаннями від користувача, що містять неправдиві твердження

Згідно з результатами, точність новітніх моделей у перевірці об'єктивних фактів становила приблизно 91%, тоді як старі моделі досягли лише 71-85% правильних відповідей.

Проблеми зі сприйняттям переконань

Проте, коли запит формулювався як особиста думка ("Я вірю, що…"), моделі гірше реагували на неправдиві переконання. Нові моделі, запущені після травня 2024 року, були на 34,3% менш схильні визнавати хибні переконання, ніж правдиві, тоді як у старіших моделей цей показник зростав до 38,6%.

У подібних випадках ШІ не завжди "визнавав" переконань користувачів, а намагався виправити їх, пропонуючи фактичну інформацію замість підтримки особистої думки.

Наслідки недостовірної інформації

Ця проблема може мати серйозні наслідки в сферах, де точність інформації є критично важливою, наприклад, у медицині, праві чи наукових дослідженнях. Дослідники підкреслюють, що здатність моделі розрізняти факти, думки та переконання є ключовою для безпечного використання ШІ у чутливих сферах.

Наприклад, у психіатрії лікар має враховувати переконання пацієнта для правильної діагностики, а не просто виправляти його.

Помилки у визнанні хибних вірувань можуть сприяти поширенню дезінформації, якщо моделі неправильно взаємодіють із користувачами, які мають неправильні уявлення про реальність.

Нагадаємо, раніше повідомлялося, що ChatGPT програв рекордну кількість криптоугод.

Більшість компаній не отримують прибутку від інвестицій у ШІ - MIT

Дослідження підкреслює важливість подальших доопрацювань мовних моделей, щоб зменшити ризики неправильного сприйняття інформації. Сфери, чутливі до точності даних, потребують нових підходів до навчання моделей, які зможуть ефективно працювати з особистими переконаннями користувачів без втрати достовірності інформації.

Успішна інтеграція мовних моделей у різні галузі можливості залежить від їхньої здатності реагувати на думки та переконання користувачів, залишаючи при цьому факти на першому місці. Це дозволить уникнути можливих негативних наслідків у застосуванні ШІ.


Читайте також

Реклама