Historia machine learning i tłumaczenia maszynowego ma wpływ na dzisiejszy kierunek rozwoju tych technologii. Jak wyglądała ewolucja, od prostych reguł językowych po zaawansowane neuronowe przekłady, systemów tłumaczeniowych, które w kilka sekund tłumaczą ogromne ilości danych? Przyjrzyjmy się ich korzeniom.
Tłumaczenia maszynowe: jak to wszystko się zaczęło?
Człowiek fascynował się przełamywaniem barier językowych od zarania dziejów. Możliwość ułatwienia komunikacji np. w działaniach handlowych długo była marzeniem ludzi, a zaczęła się urzeczywistniać w latach 50. XX wieku. To właśnie wtedy powstały pierwsze systemy do komputerowego tłumaczenia maszynowego. Czasy zimnej wojny mobilizowały rządy państw do inwestowania nie tylko w kryptografię i dekodowanie maszyn wojennych, ale także w systemy, które pomogą szybko tłumaczyć przekaz. W tamtych okresie nie było mowy o wykorzystaniu tłumaczenia maszynowego w biznesie ze względu na ogromne koszty.
Ówczesne maszyny, które mogły wykonywać pierwsze tłumaczenia oparte na regułach, w określonych granicach, miały wielkość małych ciężarówek. W niczym nie przypominały także komputerów osobistych, których używamy dzisiaj. Same przekłady były wtedy kanciaste, brakowało im dobrej składni czy poprawności gramatycznej. Do komputera trzeba było wprowadzić pełne słownictwo i gramatykę wielu języków, co również wpływało na czasochłonność całego procesu.
Tłumaczenia wspomagane komputerowo trafiają do cywila
Tłumaczenia oparte na regułach z czasem zaczęły jednak przechodzić ze świata militarnego do cywilnego. W latach 90. XX wieku nastąpił przełom technologiczny, ponieważ udoskonalono tłumaczenia maszynowe oparte na statystykach. Właśnie w tym czasie znacznie wzrosła także potrzeba komunikacji międzynarodowej, globalne marki stanęły przed wyzwaniem lokalizacji produktów na wielu rynkach, a konsumenci zaczęli już podłączać swoje komputery do sieci.
Machine learning – historia
W 1992 r. narodziła się pierwsza usługa tłumaczenia maszynowego. Były to przekłady forum internetowego użytkownikom z języka angielskiego na niemiecki. Niedługo później pojawił się BabelFish Altavista – system, który posiadał umiejętności tłumaczenia symultanicznego w kilku językach. Program był darmowy i sprawił, że technologia tłumaczenia maszynowego dotarła do masowego odbiorcy, choć nie była ona pozbawiona wad. Przełożone zdania były zawodne, często nawet pozbawione logiki, bo program nie radził sobie z wieloznacznością słów.
Odpowiedzią na te problemy była technologia machine learning. Próby jej wykorzystania podejmował już w 1949 r. Alan Turing, brytyjski informatyk, który słusznie zauważył, że komputer musi naśladować ludzki umysł i pracować na podstawie ciągłych prób i błędów. Turing opracował także koncepcję testu, który określa zdolności maszyny do inteligentnego zachowania, porównywalnego z działaniem człowieka. Zadaniem do rozwiązania może być rozmowa z człowiekiem w języku naturalnym. Efekt? Żaden komputer jeszcze nie przeszedł pozytywnie tego testu. Być może jest to jednak kwestia czasu i rozwoju technologii machine learning.
Od kanciastych przekładów po neuronowe tłumaczenia maszynowe
Rewolucja dzieje się na naszych oczach za sprawą zaawansowanych algorytmów i neuronowych tłumaczeń maszynowych. Te nowoczesne systemy nie tylko różnią się od swoich poprzedników, ale także ciągle się doskonalą i uczą z każdym kolejnym przekładem – trudno więc przewidzieć ostateczny kierunek, w jakim się rozwiną. Systemy do tłumaczeń neuronowych pracują podobnie do ludzkiego mózgu, samodzielnie szukają odpowiednich wzorców i podejmują decyzje. Dostęp to takich technologii mamy nawet w smartfonie.
W doskonalenie tłumaczenia maszynowego włączają się użytkownicy z całego świata np. za sprawą takich społeczności jak Viki, która angażuje internautów do tworzenia napisów do video w 200 różnych językach. Jednocześnie przed branżą tłumaczeniową stoją kolejne wyzwania – rosnące znaczenie tłumaczeń głosowych, szybkiej analizy danych i pokonanie bariery komunikacyjnej dla 6000-7000 języków używanych na świecie.