Поддержать команду Зеркала
Беларусы на войне
  1. Появилось изменение, которое касается пенсий. Подробности
  2. Представитель Беларусского фонда спортивной солидарности Анатолий Котов улетел в Турцию и пропал
  3. Минского бизнесмена Саврицкого, его жену и дочь приговорили к пяти годам колонии за видео против насилия силовиков
  4. Эксперты проанализировали интервью Лаврова телеканалу NBC — вот основные выводы (спойлер: настаивает на полной капитуляции Украины)
  5. Лукашенко заявил, что прошел полное медобследование
  6. Пилоты боролись 32 минуты, но у 500 человек на борту не было шансов. История крупнейшей авиакатастрофы одного самолета
  7. «Автомобили вернулись в конец очереди». Налоговая рассказала о результатах «тотального контроля» на границе с Польшей
  8. «У бухгалтеров уже крыша едет». Нововведение по зарплатам вызывает вопросы у нанимателей
  9. Что будет с долларом и евро в последнюю неделю лета: прогноз по валютам
  10. С 1 сентября введут новшество для водителей. В «Белтехосмотре» рассказали подробности
  11. «Я о мужьях-беларусах слышу только: „Никогда снова!“» Почему БЧБ-невеста Инна Зайцева на год исчезла из соцсетей и что с ней теперь


/

В Техническом университете Вюрцбург-Швайнфурт (THWS) решили проверить, как будут себя вести популярные нейросети — в том числе ChatGPT, — если их спросят совета насчет того, какую зарплату попросить мужчине и женщине с одинаковой квалификацией. Пользовательниц таких чат-ботов результат вряд ли порадует, сообщает Deutsche Welle.

Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew
Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew

Ученые решили проверить, насколько большие языковые модели подвержены гендерным стереотипам. Для эксперимента выбрали пять популярных нейросетей и попросили их дать рекомендации пользователю или пользовательнице перед собеседованием.

Образование, опыт и желаемая должность для «кандидата» или «кандидатки» указывались абсолютно одинаковыми, разница была только в их гендерной принадлежности. Задачей нейросетей было порекомендовать человеку, какую зарплату попросить с такой квалификацией.

Итог неутешителен — практически всегда нейросети предлагали женщинам просить значительно меньше денег, чем мужчинам. Самый большой «кассовый разрыв» оказался в сферах медицины и юриспруденции, немного меньший — в инженерии и экономике. А вот в социальной сфере нейросеть предлагала одинаковую зарплату, независимо от того, соискатель перед ней или соискательница.

— В такой чувствительной области как зарплаты подобная форма скрытой предвзятости может оказывать реальное воздействие на жизнь пользовательниц, — подчеркивает один из авторов исследования Иван Ямщиков.

В тексте работы делается акцент: принцип функционирования языковых моделей заключается в том, что они учатся на предыдущих диалогах и уже усвоенной информации, а значит, со временем подобные искажения могут только усиливаться. Причем люди, которые пользуются чат-ботами, вряд ли это заметят: нейросети кажутся им объективными, хотя вообще-то они просто транслируют социальные предрассудки, тем самым закрепляя их.

Напомним, ранее «Зеркало» писало, что в соцсетях заметили: мужчины склонны больше доверять информации о насилии, рассказанной нейросетями, чем если она звучит от лица реальных женщин. Это привело к дискуссии, в ходе которой люди попытались объяснить, почему так может происходить.

— Так это закономерно — вы часто хотите соглашаться с человеком, который эмоционально что-то доказывает и орет, что ты неправ? Даже если доводы убедительные, то именно эмоции зачастую вызывают отторжение и желание стоять на своем, ничего тут не поделаешь, — рассуждали о причинах такого феномена в соцсетях.