Поддержать команду Зеркала
Беларусы на войне
  1. Французский тренч и сумка за тысячи долларов. Сколько стоит образ, в котором Наталья Петкевич посетила монастырь
  2. «Однозначно, вау!» В Минском районе в ноябре откроют медучреждение для «элит», которое построили за счет «заинтересованных» — BELPOL
  3. Погиб в ДТП, умер в изгнании, жив, но давно не дает интервью. Как сложились судьбы беларусских олигархов
  4. Встреча Путина и Трампа на Аляске привела к одному неприятному последствию. Вот какому
  5. Беларусь заняла «почетное» место, а победил Вьетнам. В России прошел конкурс-заменитель «Евровидения»
  6. Лукашенко недавно назвал «самую большую проблему Беларуси». Эксперты подтвердили опасения политика
  7. Лукашенко назвал закрытие границы — «недружественным шагом поляков против Китая»
  8. Мобильные операторы предупредили клиентов, что вводят изменения
  9. «Генеральное наступление осени по всем фронтам». Какой будет погода до конца сентября
  10. У Минска — новый главный идеолог. Им стал сенатор из БРСМ, который ездил в оккупированную Авдеевку с «главой» самопровозглашенной ДНР
  11. Необычно маленький объем торгов: что происходит с курсом доллара и куда он двинется дальше? Прогноз по валютам
  12. Окончательно «умерла» одна из фирм на автомобильном рынке. Появились новые подробности этой истории
  13. Путин сделал важный вывод после встречи с Трампом и, похоже, специально «слил» его в СМИ. О чем идет речь и зачем он это cовершил


Исследователи из Университета штата Северная Каролина разработали инструмент для обучения ИИ, который поможет программам лучше учитывать то, что люди не всегда говорят правду, предоставляя личную информацию. Новый метод обучения разработан для использования в ситуациях, когда у людей есть экономический стимул лгать, например, при подаче заявки на ипотеку или попытке снизить страховые взносы, пишет «Хайтек».

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

ИИ уже используют в самых разных ситуациях для поддержки принятия решений. Такие программы, как правило, используют для прогнозирования математические алгоритмы, основанные исключительно на статистике. Проблема в том, что этот подход создает стимулы для людей лгать, например, чтобы получить ипотеку.

Исследователи разработали набор параметров, которые можно использовать для определения того, как ИИ учится делать прогнозы. Параметры помогают программе распознавать и учитывать экономические стимулы человека. Другими словами, ИИ учится распознавать обстоятельства, в которых человеку выгодно лгать.

В ходе моделирования, подтверждающего концепцию, модифицированный ИИ лучше обнаруживал неточную информацию от пользователей. Исследователи делают новые параметры обучения ИИ общедоступными, чтобы разработчики ИИ могли экспериментировать с ними.

«Это эффективно снижает стимул пользователя лгать при отправке информации. Однако маленькая ложь все равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между „маленькой“ и „большой ложью“. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы», — рассказал соавтор исследования Мехмет Канер.