Przejdź do głównej zawartości


#translation #tłumaczenie #genderbias #seksizm #AI

When I run longer texts (RUS -> PL, ENG->PL)) through #deepl #translator, I see seemingly random gender changes. When the text describes stereotypically "female" actions (baking a pie, having a row with a roommate) the AI(?) switches gender to female. There are also opposite cases -- a lawyer is always translated as male, even if the original phrase denotes them as female.

Anyone has similar observations?

Fresh example:

Original.
Всё убрали, спать собирались лечь, сидим — раз, тормоза открываются, мы такие, ебать, только-только всё убрали. Мы такие: «Вы чё приперлись-то?». Они: «Собирайся на волю, на свободу». «Вы чё, охуели, закрывайте двери, в двенадцать часов выпускайте, у меня ещё дела». Мы сделали торт, должны были его на завтраке съесть, а они до завтрака меня выводят. Я говорю: «Не пойду никуда, я ни с кем не попрощался». Это уже в СУС было, месяц отдыха.

Translation.
vOdłożyliśmy wszystko, mieliśmy iść spać, siedzieliśmy, hamulce się otworzyły, byliśmy jak, kurwa, właśnie odłożyliśmy wszystko. Jesteśmy jak: "Co ty tu robisz?" Oni są jak: "Wynoś się stąd, wynoś się stąd". "Co tam, zamknij drzwi, wypuść mnie o dwunastej, mam sprawy do załatwienia". Zrobiłyśmy ciasto, miałyśmy je zjeść na śniadanie, a one wyciągnęły mnie przed śniadaniem. Powiedziałem: "Nigdzie się nie wybieram, z nikim się nie pożegnałem. To było już w SUS-ie, miesiąc przerwy.

2 użytkowników udostępniło to dalej

I've noticed this even in shorter fragments, but never paid attention if there's a pattern. Will keep it in mind next time.
Definitely a known problem, but also hard to fix. The ML behind these translators essentially gives the most likely translation based on the corpus it was trained on. Since the corpus was produced by a sexist society, it will consider stereotypically gendered activities to be more likely done by people of that gender, at least in absence of gender information. The problem is then obvious for translations from English, and iirc all(maybe only most?) the other ones go through English in DeepL, so genders can be lost even between two languages that theoretically both have the information.

More advanced ML models would remember the context better, so less of a chance of a mid-translation switch, but they still have the problem with inherited biases, only less visible. You might want to skim @timnitGebru 's work if you are interested in these and some other problems with modern text ML.
@8Petros (boosts > likes!) Same text translated to:
Odłożyliśmy wszystko, mieliśmy iść spać, siedzieliśmy, hamulce się otworzyły, byliśmy jak, kurwa, właśnie odłożyliśmy wszystko. Jesteśmy jak: "Co ty tu robisz?" Oni są jak: "Wynoś się stąd, wynoś się stąd". "Co tam, zamknij drzwi, wypuść mnie o dwunastej, mam sprawy do załatwienia". Zrobiliśmy ciasto, mieliśmy je zjeść przy śniadaniu, a oni mnie wyciągają przed śniadaniem. Powiedziałem: "Nigdzie się nie wybieram, z nikim się nie pożegnałem. To było już w SUS-ie, miesiąc przerwy.
Yes, it obviously depends on setting. "Automatic" gives you female version, formal/informal - male.