Эта опция сбросит домашнюю страницу этого сайта. Восстановление любых закрытых виджетов или категорий.

Сбросить

>

Ошибка китайское приложение для обмена сообщениями видит н-слово, используемое в переводе


Опубликованно 17.10.2017 12:40

Ошибка китайское приложение для обмена сообщениями видит н-слово, используемое в переводе

По сообщениям китайского приложения wechat для обмена сообщениями извинился после ошибки ИИ в результате его перевода в нейтральный китайский фразу в N-слово.

Ошибки wechat было сообщили из Шанхая, театральный продюсер и актер Энн Джеймс, чернокожий американец. В сообщении на сервисе Twitter-как особенность моменты, она написала, что перевела laowai вуз – нейтральная фраза, которая буквально означает “черный иностранец” – как N-слово.

“Мы очень сожалеем за ненадлежащее перевод,” представитель сети сообщил китайский новостной сайт шестой тон. “После получения обратной связи от пользователей, мы сразу же решили проблему.”

Микро-канал добавить, что перевод двигателя используется нейронная сеть-сервис, который всегда будет оптимальной для “более точный, верный, выразительный и элегантный” выход.

Такие системы известны по учету отклонения и ошибки источники данных, на которых они проходят подготовку, которая, по-видимому, что произошло здесь.

В примере Джеймса при условии, оскорбительный приговор читать “негр еще не поздно”. Серия аналогичных тестов из местных новостных сайтов, что в Шанхае, показали, система способна обеспечить более точный перевод для позитивных предложений. “Черные иностранцы-это круто” выходит более или менее правильные, а другие переводы словом, когда приговор назвал их “ленивыми” или “вор”. Во всех тестах один и тот же китайский фраза, laowai вузов, была использована.

Система машинного обучения, может, затем, прошли обучение на корпус китайский и английский текст, в котором содержались расистские оскорбления наряду со стереотипными описаниями черный человек.

Выступая на Хранителя, Джеймс сказал: “Когда я прибежал переводчик, слово на Н, И я был потрясен.” Она сказала SixthTone, что она была удивлена ошибка. “Если ты черный человек в Китае, ты сталкиваешься с безуминкой”, - сказала она. “Я знаю, что есть много любопытства и большое невежество о черных людей [в Китае]”.

Джеймс говорит, что она удовлетворена ответом простое украшение. “Микро-канал изменил алгоритм, и теперь никто в 900 миллионов ежедневных пользователей никогда не придется переводить, что N-слово”, - сказала она по электронной почте. “Эпический”.

Машинный перевод, делая сомнительный проблема не только в Китае. Собственный перевод гугловский продукт, широко рассматривается как лучший на рынке, может предложить проблематично выходов. Пользователи, пытающиеся перевести гендерно-нейтральные турецкие предложения для “их врач” и “медсестра”, например, вместо того, чтобы найти службу, делая сексистские предположения и перевести два предложения на мужские и женские соответственно.

И почти два года назад, Google был вынужден извиниться после того, как системы машинного зрения были помечены фотографию двух чернокожих как “горилл”.

Микро-канал не комментировать на момент публикации.



Категория: Обо всем