#translation #tłumaczenie #genderbias #seksizm #AI
When I run longer texts (RUS -> PL, ENG->PL)) through #deepl #translator, I see seemingly random gender changes. When the text describes stereotypically "female" actions (baking a pie, having a row with a roommate) the AI(?) switches gender to female. There are also opposite cases -- a lawyer is always translated as male, even if the original phrase denotes them as female.
Anyone has similar observations?
Fresh example:
Original.
Всё убрали, спать собирались лечь, сидим — раз, тормоза открываются, мы такие, ебать, только-только всё убрали. Мы такие: «Вы чё приперлись-то?». Они: «Собирайся на волю, на свободу». «Вы чё, охуели, закрывайте двери, в двенадцать часов выпускайте, у меня ещё дела». Мы сделали торт, должны были его на завтраке съесть, а они до завтрака меня выводят. Я говорю: «Не пойду никуда, я ни с кем не попрощался». Это уже в СУС было, месяц отдыха.
Translation.
vOdłożyliśmy wszystko, mieliśmy iść spać, siedzieliśmy, hamulce się otworzyły, byliśmy jak, kurwa, właśnie odłożyliśmy wszystko. Jesteśmy jak: "Co ty tu robisz?" Oni są jak: "Wynoś się stąd, wynoś się stąd". "Co tam, zamknij drzwi, wypuść mnie o dwunastej, mam sprawy do załatwienia". Zrobiłyśmy ciasto, miałyśmy je zjeść na śniadanie, a one wyciągnęły mnie przed śniadaniem. Powiedziałem: "Nigdzie się nie wybieram, z nikim się nie pożegnałem. To było już w SUS-ie, miesiąc przerwy.
like this
Lorraine Lee likes this.
reshared this
Lorraine Lee i n8chz 🩎 reshared this.
Krzysiek
in reply to 8Petros [$ rm -rv /capitalism/*] • • •8Petros [$ rm -rv /capitalism/*] likes this.
timorl
in reply to 8Petros [$ rm -rv /capitalism/*] • • •Definitely a known problem, but also hard to fix. The ML behind these translators essentially gives the most likely translation based on the corpus it was trained on. Since the corpus was produced by a sexist society, it will consider stereotypically gendered activities to be more likely done by people of that gender, at least in absence of gender information. The problem is then obvious for translations from English, and iirc all(maybe only most?) the other ones go through English in DeepL, so genders can be lost even between two languages that theoretically both have the information.
More advanced ML models would remember the context better, so less of a chance of a mid-translation switch, but they still have the problem with inherited biases, only less visible. You might want to skim @timnitGebru 's work if you are interested in these and some other problems with modern text ML.
MiKlo:~/citizen4.eu$💙💛
in reply to 8Petros [$ rm -rv /capitalism/*] • • •@8Petros (boosts > likes!) Same text translated to:
8Petros [$ rm -rv /capitalism/*]
in reply to MiKlo:~/citizen4.eu$💙💛 • •