W jaki sposób uchronić się przed zubożeniem języka?
Zgodnie z powszechną wiedzą, zadaniem tłumacza jest przełożenie tekstu oryginału jak najwierniej na język obcy. W praktyce jest to jednak nie do końca możliwe. Czy podobnym ryzykiem obarczone są tłumaczenia maszynowe? Czy „maszynowa” rewolucja będzie miała negatywny wpływ na różnorodność tłumaczeń oraz utratę bogactwa morfologicznego? Jak się przed tym uchronić?
Żywy tłumacz kontra tłumaczenie maszynowe
Tłumacze w procesie przekładu na każdym kroku stają w obliczu trudnych decyzji. Patrząc na tłumaczony tekst przez pryzmat swoich osobistych doświadczeń i preferencji, mogą oni uściślać, skracać lub podsumowywać słowa autora, odciskając w ten sposób ślad na jego tekście w innej wersji językowej. W przypadku nieprofesjonalnych tłumaczeń, w których wpływ ten jest bardzo zauważalny, lingwiści stosują termin „translationese”, odnoszący się do przekładów obfitujących w błędy, dopowiedzenia i ominięcia. Czy istnieje również „machine translationese”?
Algorytmy sieci neuronowych nie mogą kierować się własnymi inklinacjami. W przeciwieństwie do tłumaczenia przez żywego tłumacza, tłumaczenie maszynowe ma jeden cel – zapewnienie jak najdokładniejszego przekładu tekstu źródłowego, w tym przypadku kosztem bogactwa i różnorodności językowej. W jakich sektorach gospodarki tego typu tłumaczenia sprawdzą się najlepiej? Przeczytaj nasz artykuł i poznaj 5 zaskakujących przykładów zastosowania sztucznej inteligencji w tłumaczeniach.
Tłumaczenia maszynowe – poziom bogactwa leksykalnego
Nie od dziś wiadomo, że tłumaczenia maszynowe mają swoje wady i zalety. Do grupy tych ostatnich należą bez wątpienia szybki czas realizacji i jej niski koszt, do grona tych pierwszych zaś, obok braku umiejętności rozpoznawania aspektów kulturowych i kontekstu, właśnie dołączyło leksykalne zubożenie tekstu docelowego.
Potwierdziły to badania Evy Vanmassenhove i Dimitara Shterionova z Uniwersytetu w Tilburgu oraz Matthew Gwilliama z Uniwersytetu w Maryland, przeprowadzone z uwzględnieniem różnych rodzajów tłumaczenia maszynowego na języki angielski, francuski i hiszpański.
Wyniki eksperymentów jasno pokazały, że we wszystkich badanych przypadkach tłumaczenia maszynowe odznaczały się znacznym zubożeniem leksykalnym w porównaniu z tekstem oryginalnym.
Zubożenie przekazu – jak go uniknąć?
W świetle powyższych faktów rosnąca popularność tłumaczeń maszynowych i coraz większa sprawność algorytmów mogą prowokować pytania o długofalowe skutki zubożenia leksykalnego tekstów. Szczególnie że niedawno na rynek wprowadzone zostały rozwiązania do tłumaczenia na żywo, które stanowią kamień milowy w rozwoju technologii tłumaczeniowej – dokładnie temat wpływu tłumaczeń na żywo na biznes opisaliśmy w naszym poprzednim artykule.
Jak uchronić się przed zubożeniem leksykalnym języka, do którego prowadzić mogą ograniczenia tłumaczenia maszynowego? Choć problem jest poważny na przykład ze względu na fakt, że tłumaczenie maszynowe jest powszechnie używane wśród instytucji i organizacji rządowych na całym świecie, jego rozwiązanie jest proste.
Każdy przetłumaczony maszynowo tekst powinien zostać poddany postedycji, czyli innymi słowy, weryfikacji tekstu przetłumaczonego maszynowo przez żywego człowieka. Pozwoli to wychwycić błędy wynikające z nieprawidłowego wychwycenia przez algorytmy kontekstu i konotacji kulturowych, literówki i błędy gramatyczne. Więcej na temat tego, jak ważna jest postedycja, można dowiedzieć się z naszego poprzedniego artykułu.
Tłumaczenia maszynowe to niewątpliwie przyszłość branży usług językowych, jednak podobnie jak w innych dziedzinach życia, również tutaj należy zachować daleko idącą ostrożność. Jej przejawem w przypadku sztucznej inteligencji jest powierzenie weryfikacji wygenerowanego tekstu inteligencji żywej w postaci wykwalifikowanego, profesjonalnego tłumacza. Warto również pamiętać, że w razie użycia tłumaczenia maszynowego całkowitą odpowiedzialność za ewentualne błędy oraz stronniczość przekładu ponosi sam klient.