2020-6-10 09:08 |
Волна критика обрушилась на недавнее спорное решение Microsoft заменить часть редакторов новостных сервисов Microsoft News и MSN системой искусственного интеллекта после того, как последняя в первую же неделю своей работы перепутала двух певиц смешанной расы. Само собой, без обвинений в расизме не обошлось. Об инциденте рассказало издание The Guardian. Система отбирает контент для показа на главной странице MSN. Один из новоявленных роботов-журналистов MSN.com перепечатал личную историю о расизме, которую поведала участница группы Little Mix Джейд Фёрволл, но опубликовал ее вместе с фотографией другой участницы группы — Ли-Энн Пиннок. ИИ Microsoft перепутал двух певиц смешанной расы Ли-Энн Пиннок (слева) и Джейд Фёрволл (справа) Заметив ошибку, Фёрволл выступила с критическим замечанием в адрес Microsoft на своей странице в «Историях» в Instagram. «MSN, если вы хотите копировать и публиковать у себя статьи из других источников, то вам стоит сначала убедиться, что вы берёте фото правильного участника группы смешанной расы. Это дерьмо происходит со мной и Ли-Энн Пиннок постоянно. Меня оскорбляет то, что вы не можете различить двух «цветных» женщин в группе из четырёх человек. Старайтесь лучше!» Джейд Фёрволл участница группы Little Mix Вполне вероятно, певица и знать и не знала, что за отбор новостей на MSN отвечает ИИ. Неясно, что именно привело к ошибке, но, учитывая, что речь идет об автоматизированной системе, не исключено, что это произошло из-за неправильно помеченных изображений, предоставляемых информационными агентствами. Как раз такие ошибки должны замечать и исправлять «живые» редакторы, хотя, судя по комментариям Джейд Фёрволл, это далеко не первый такой случай. Представитель Microsoft прокомментировал The Guardian инцидент следующим образом: «Как только мы узнали об этой проблеме, мы немедленно приняли меры для ее устранения и заменили неправильное фото». После инцидента Microsoft проинструктировала оставшихся «живых» редакторов сайта внимательно отслеживать и удалять негативные публикации о роботе-редакторе, если алгоритм опубликует ее в новостном сервисе, сообщает издание со ссылкой на одного из сотрудников. «Со всеми этими антирасистскими протестами сейчас не время ошибаться», — отметил собеседник издания. Остается добавить, что для Microsoft это далеко не первый такой инцидент с ИИ: еще помните скандальных чат-ботов Tay и Zo? Первый за сутки полюбил Гитлера и возненавидел феминисток, а второй называл ОС Windows «шпионским ПО» и рекламировал Linux. Источник: The Guardian источник »