Якось невдобно вийшло. Роботы-редакторы Microsoft перепутали двух певиц смешанной расы
Волна критика обрушилась на недавнее спорное решение Microsoft заменить часть редакторов новостных сервисов Microsoft News и MSN системой искусственного интеллекта после того, как последняя в первую же неделю своей работы перепутала двух певиц смешанной расы. Само собой, без обвинений в расизме не обошлось. Об инциденте рассказало издание The Guardian.
Система отбирает контент для показа на главной странице MSN. Один из новоявленных роботов-журналистов MSN.com перепечатал личную историю о расизме, которую поведала участница группы Little Mix Джейд Фёрволл, но опубликовал ее вместе с фотографией другой участницы группы — Ли-Энн Пиннок.
ИИ Microsoft перепутал двух певиц смешанной расы Ли-Энн Пиннок (слева) и Джейд Фёрволл (справа)Заметив ошибку, Фёрволл выступила с критическим замечанием в адрес Microsoft на своей странице в «Историях» в Instagram.
«MSN, если вы хотите копировать и публиковать у себя статьи из других источников, то вам стоит сначала убедиться, что вы берёте фото правильного участника группы смешанной расы.
Это дерьмо происходит со мной и Ли-Энн Пиннок постоянно. Меня оскорбляет то, что вы не можете различить двух «цветных» женщин в группе из четырёх человек. Старайтесь лучше!»
Джейд Фёрволл
участница группы Little Mix
Вполне вероятно, певица и знать и не знала, что за отбор новостей на MSN отвечает ИИ.
Неясно, что именно привело к ошибке, но, учитывая, что речь идет об автоматизированной системе, не исключено, что это произошло из-за неправильно помеченных изображений, предоставляемых информационными агентствами. Как раз такие ошибки должны замечать и исправлять «живые» редакторы, хотя, судя по комментариям Джейд Фёрволл, это далеко не первый такой случай.
Представитель Microsoft прокомментировал The Guardian инцидент следующим образом: «Как только мы узнали об этой проблеме, мы немедленно приняли меры для ее устранения и заменили неправильное фото».
После инцидента Microsoft проинструктировала оставшихся «живых» редакторов сайта внимательно отслеживать и удалять негативные публикации о роботе-редакторе, если алгоритм опубликует ее в новостном сервисе, сообщает издание со ссылкой на одного из сотрудников.
«Со всеми этими антирасистскими протестами сейчас не время ошибаться», — отметил собеседник издания.
Остается добавить, что для Microsoft это далеко не первый такой инцидент с ИИ: еще помните скандальных чат-ботов Tay и Zo? Первый за сутки полюбил Гитлера и возненавидел феминисток, а второй называл ОС Windows «шпионским ПО» и рекламировал Linux.
Источник: The Guardian