Голосовые помощники на базе ИИ укрепляют вредные гендерные стереотипы, говорится в новом докладе ЮНЕСКО

О специфике цифровых голосовых помощников

0
48
Феминизация голосовых помощников укореняет устаревшие вредные представления о женщинах

Согласно новому исследованию ЮНЕСКО, голосовые помощники на основе искусственного интеллекта, по умолчанию звучащие женским голосом, усиливают вредные гендерные стереотипы. В статье под названием «Я бы покраснела, если бы могла» (ответ Сири при получении откровенно сексуальных команд) рассматриваются последствия предвзятости при исследованиях ИИ и разработке продуктов, а также потенциальные долгосрочные негативные последствия для общества, особенно детей. Ведь они воспринимают всерьез этих цифровых голосовых помощников, которые существуют только для обслуживания владельцев.

В документе утверждается, что, называя голосовых помощников традиционно женскими именами, такими как Алекса и Сири, и делая голоса по умолчанию женскими, технологические компании уже спекулируют на устаревших и вредных представлениях о женщинах. Далее в статье говорится, что технологическим компаниям не удалось обеспечить надлежащие гарантии против формирования враждебного и оскорбительного гендерного мышления. Вместо этого большинство помощников, как и Сири, склонны к ответам в виде хитрых шуток, отвлечения агрессии или смены темы. Например, попросите Сири сделать вам бутерброд, и голосовой помощник ответит: «Я не могу. У меня нет никаких приправ.

«Такие компании, как Apple и Amazon, в которых работают в подавляющем большинстве мужские инженерные группы, создали системы искусственного интеллекта, которые заставляют их феминизированных цифровых помощников приветствовать словесные оскорбления с помощью флирта вроде «поймай меня, если сможешь», — говорится в отчете. «Поскольку речь большинства голосовых помощников является женской, она посылает сигнал о том, что женщины — помощники, покорные и готовые угодить, доступные по нажатию кнопки или с помощью тупой голосовой команды, такой как «Эй» или «Окей. Помощник не обладает волей, он только делает то, о чем просит командир. Он соблюдает команды и отвечает на запросы независимо от их тона или враждебности».

Много было написано о подводных камнях технологических компаний, которые построили целые ИИ-платформы, ориентированные на потребителя, в образе традиционных, навеянных Голливудом идей подчиненного ИИ. В будущем, скорее всего, голосовые помощники станут основным способом взаимодействия с аппаратным и программным обеспечением, с появлением так называемых окружающих вычислений, когда всевозможные гаджеты, подключенные к Интернету, постоянно будут окружать нас. Вспомните фильм Спайка Джонса «Она», который кажется наиболее точным описанием ближайшего будущего в фильме, которое вы можете найти сегодня. То, как мы взаимодействуем со все более изощренными ИИ, питающими эти технологические платформы, может оказать глубокое культурное и социологическое влияние на то, как мы взаимодействуем с другими людьми, в частности с работниками сферы обслуживания, а также с роботами-гуманоидами, которые играют все более существенную роль в повседневной жизни, и как рабочая сила.

ЮНЕСКО заявляет, что решение этой проблемы будет состоять в том, чтобы создать как можно более гендерно-нейтральные голоса помощников и добавить системы, способствующие предотвращению оскорблений по половому признаку. Кроме того, в отчете говорится, что технологические компании должны отказаться от формирования у пользователей такого отношения к ИИ-системам, как если бы они были меньшими по статусу, подчиненными людьми. И единственный способ избежать сохранения вредных стереотипов, подобных этим, состоит в том, чтобы целенаправленно сделать голосовых помощников менее очеловеченными.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
Пожалуйста, введите ваше имя здесь