Поддержать команду Зеркала
Беларусы на войне
  1. ГосСМИ Ирана назвали нового верховного лидера страны
  2. Лукашенко предложил открыть заведения этой сети ресторанов в районных центрах
  3. 8 марта в Дзержинской ЦРБ умерли роженица и ребенок
  4. Разгадка феномена ясновидящей бабы Ванги оказалась чрезвычайно простой. Вот кто использует ее в своих интересах
  5. Беларусский акционист разослал по российским школам брошюры в стиле нацистской Германии с лицами пропагандистов — как отреагировали
  6. «Мне даже обидно». Лукашенко задался вопросом, зачем «создавал ПВТ, продвигал айтишников», и вспомнил 2020 год
  7. Доллар стремительно дорожает: что будет с курсами в середине марта? Прогноз по валютам
  8. «Ни фига себе». В TikTok рассказали о курьезном случае по «тунеядству»: в истории — попадание в базу «иждивенцев» и звонки из милиции
  9. Кто те девушки, которые «случайно» оказались в Mak.by во время визита Лукашенко? Узнали
  10. Сын пропагандистки поступил в Москву — в Беларуси его считают уклонистом. Мать обратилась к Лукашенко
  11. Минчанка забронировала столик в престижном ресторане на 8 марта. В преддверии праздника ее попросили внести депозит — 800 рублей
  12. Влюбленная пара отправилась в поход по местам съемок «Властелина колец». Они не подозревали, что это закончится кошмаром
  13. Из-за украинского контрнаступления Россия стоит перед дилеммой — вот о чем речь


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.