Поддержать команду Зеркала
Беларусы на войне
  1. «Бэчебэшник», об убийстве которого говорил Лукашенко, существует и остался жив — представительница ОПК
  2. В документах по «делу Эпштейна» обнаружились крупные переводы в Минск. Рассказываем, что связывало с Беларусью миллионера и преступника
  3. В выяснении отношений между Беларусью и Литвой из-за калия — очередная «серия». Какая идея появилась у Вильнюса
  4. «Или я сплю, или все». Политзаключенный из-за проблем со здоровьем сам просился в ШИЗО, чтобы его перестали бить сокамерники — рассказываем
  5. «Слушаю и офигеваю». В TikTok активно обсуждают заявление Лукашенко о зарплатах — что в словах политика вызвало такую реакцию
  6. «Мы на пороге грандиозного шухера». На рынке недвижимости заметили признаки обвала — в чем это выражается
  7. В Кремле заявили, что готовы юридически закрепить свое намерение не нападать на государства ЕС или НАТО — стоит ли этому верить?
  8. «У них другое видение, мы это уже понимаем». Каким будет политическое будущее команды Бабарико — рассуждает Артем Шрайбман
  9. Дочь отвечает за отца? Власти забрали дом ребенка основателя «Нового зрения» по уголовному делу ее родителя
  10. Польская прокуратура начала расследование смерти Никиты Мелкозерова по статье «непредумышленное убийство» — «Белсат»
  11. Беларусу, воевавшему в Украине на стороне РФ и вернувшемуся по обмену пленными, на родине дали не менее 10 лет колонии
  12. «Я любил этого парня в татуировках». Посмотрели, что пишут друзья, коллеги и герои «жизнь-малина» о Никите Мелкозерове


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.