Przejdź do głównej zawartości


reshared this

in reply to 8Petros [Signal: Petros.63]

I've noticed this even in shorter fragments, but never paid attention if there's a pattern. Will keep it in mind next time.
in reply to 8Petros [Signal: Petros.63]

Definitely a known problem, but also hard to fix. The ML behind these translators essentially gives the most likely translation based on the corpus it was trained on. Since the corpus was produced by a sexist society, it will consider stereotypically gendered activities to be more likely done by people of that gender, at least in absence of gender information. The problem is then obvious for translations from English, and iirc all(maybe only most?) the other ones go through English in DeepL, so genders can be lost even between two languages that theoretically both have the information.

More advanced ML models would remember the context better, so less of a chance of a mid-translation switch, but they still have the problem with inherited biases, only less visible. You might want to skim @timnitGebru 's work if you are interested in these and some other problems with modern text ML.
in reply to 8Petros [Signal: Petros.63]

@8Petros (boosts > likes!) Same text translated to:
Odłożyliśmy wszystko, mieliśmy iść spać, siedzieliśmy, hamulce się otworzyły, byliśmy jak, kurwa, właśnie odłożyliśmy wszystko. Jesteśmy jak: "Co ty tu robisz?" Oni są jak: "Wynoś się stąd, wynoś się stąd". "Co tam, zamknij drzwi, wypuść mnie o dwunastej, mam sprawy do załatwienia". Zrobiliśmy ciasto, mieliśmy je zjeść przy śniadaniu, a oni mnie wyciągają przed śniadaniem. Powiedziałem: "Nigdzie się nie wybieram, z nikim się nie pożegnałem. To było już w SUS-ie, miesiąc przerwy.
Ten wpis został zedytowany (1 rok temu)
in reply to MiKlo:~/citizen4.eu$💙💛

Yes, it obviously depends on setting. "Automatic" gives you female version, formal/informal - male.