Поддержать команду Зеркала
Беларусы на войне
  1. Окончательно «умерла» одна из фирм на автомобильном рынке. Появились новые подробности этой истории
  2. Беларусь заняла «почетное» место, а победил Вьетнам. В России прошел конкурс-заменитель «Евровидения»
  3. В Минске с крыши самого высокого жилого дома спрыгнул человек
  4. Необычно маленький объем торгов: что происходит с курсом доллара и куда он двинется дальше? Прогноз по валютам
  5. «Однозначно, вау!» В Минском районе в ноябре откроют медучреждение для «элит», которое построили за счет «заинтересованных» — BELPOL
  6. Путин сделал важный вывод после встречи с Трампом и, похоже, специально «слил» его в СМИ. О чем идет речь и зачем он это cовершил
  7. Мобильные операторы предупредили клиентов, что вводят изменения
  8. Погиб в ДТП, умер в изгнании, жив, но давно не дает интервью. Как сложились судьбы беларусских олигархов
  9. Счет женщин шел на десятки. Подробности интимной жизни самого любвеобильного правителя на территории Беларуси
  10. Встреча Путина и Трампа на Аляске привела к одному неприятному последствию. Вот какому
  11. Власти уверяют, что не будут поднимать пенсионный возраст. Экономист же считает, что другого выхода нет — и напрячься надо женщинам
  12. «Генеральное наступление осени по всем фронтам». Какой будет погода до конца сентября
  13. Французский тренч и сумка за тысячи долларов. Сколько стоит образ, в котором Наталья Петкевич посетила монастырь


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.