Поддержать команду Зеркала
Беларусы на войне
  1. Мужчина сделал колоноскопию и умер через три недели. Семья написала уже более 10 писем в госорганы
  2. Белый дом перепутал Бельгию с Беларусью и включил ее в список участников «Совета мира» Трампа
  3. Минсвязи вводит ограничение скорости для безлимитного мобильного интернета
  4. В Минск начнет летать новая авиакомпания. Билет стоит всего 89 рублей
  5. Кремль не демонстрирует готовности к компромиссам по Украине — ISW
  6. «Если бы беларусский народ победил в 2020-м, российского „Орешника“ не было бы в Беларуси». Зеленский выступил с жесткой речью в Давосе
  7. Умерла Ирина Быкова, вдова Василя Быкова
  8. «Оторвался тромб». Правда ли, что это может случиться у любого, даже здорового человека, и как избежать смертельной опасности?
  9. На четверг объявили желтый уровень опасности. Водителям и пешеходам — приготовиться
  10. После аварии на теплотрассе Лукашенко заметил очевидную проблему с отоплением. Ее не могут решить по парадоксальной причине — рассказываем
  11. На войне в Украине погиб беларусский доброволец Алексей Лазарев
  12. «Это куда более крепкий орешек». СМИ узнали еще одну страну, где США рассчитывают сменить власть до конца года
  13. «Люди военкоматам нужны». Эксперты обнаружили новшества в осеннем призыве и рассказали, к чему готовиться тем, кому в армию весной
  14. Зачем Трамп позвал Лукашенко в «Совет мира», где членство стоит миллиард долларов — спросили у аналитика


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.