Sztuczna inteligencja pomoże osobom z zaburzeniami mowy w komunikacji ze światem

 

Ludzie od lat próbują przełamywać bariery i pracują nad technologiami, które pomogłyby osobom niepełnosprawnym komunikować się z otoczeniem. Wszystko wskazuje na to, że jesteśmy coraz bliżej realnego rozwiązania, czego potwierdzeniem jest najnowsze odkrycie naukowców z Indyjskiego Instytutu Technologii w Madrasie. Tamtejsi badacze opracowali algorytm, który zamienia sygnały mózgowe osób z zaburzeniami mowy na kompletne zdania w języku angielskim.

Osoby, które utraciły zdolność mówienia, mogą obecnie korzystać z technologii polegającej na wybieraniu słów i liter przy pomocy minimalnych ruchów kontrolujących kursor na ekranie. Utworzony tekst jest wtedy przetwarzany przez syntezator mowy. Właśnie dzięki takiemu rozwiązaniu wykłady mógł wygłaszać słynny fizyk Stephen Hawking, który chorował na stwardnienie zanikowe boczne. Wspomniane narzędzie nie jest jednak idealne. Jego wadą jest przede wszystkim powolne generowanie zdań, bo użytkownik może przy jego pomocy „powiedzieć” zaledwie 10 słów na minutę. Dla porównania osoby zdrowe w tym samym czasie wypowiadają około 150 słów.

Dlatego też naukowcy stale podejmują próby opracowania rozwiązania, które by rozpoznawały sygnały mózgu i syntezowały je na mowę szybciej i dokładniej. Takie badania prowadzono np. na Kalifornijskim Uniwersytecie w San Francisco w USA. Pracowano tam nad algorytmami sztucznej inteligencji, które naśladowałyby działanie części mózgu odpowiedzialnej za przekształcanie elektrycznych sygnałów mózgu na polecenia wysyłane do aparatu mowy. Choć udało się opracować taką technologię, to może ona być w przyszłości pomocna, ale wyłącznie dla osób, które wcześniej już mówiły[1].

Sztuczna inteligencja pomoże w komunikacji osobom z zaburzeniami mowy?

Przełomowym odkryciem może być jednak technologia oparta na sztucznej inteligencji, opracowana w Indiach przez zespół dr Vishala Nandigany. Jak podaje „Analytics India Magazine”, badacze z Madrasu opracowali rozwiązanie, które potrafi przekształcić sygnały mózgowe osób z zaburzeniami mowy na kompletne zdania w języku angielskim. Algorytmy bazują na wysyłanych przez mózg sygnałach elektrycznych, które są dekodowane jako informacja za pomocą praw fizycznych i transformacji matematycznych, takich jak transformata Fouriera. Sygnały mózgowe mają postać fali, którą można przekształcać na dane.

ai - speech disordersBy jednak te dane mogły zostać zinterpretowane, potrzeba kolejnych prac badawczych, które pomogą w interpretacji elektrycznie sterowanych sygnałów prądu jonowego na konkretny komunikat. Gdy naukowcy uzyskają dane elektrofizjologiczne od neurologów, będą mogli rozpoznać, co osoby z zaburzeniami mowy mają na myśli.

Algorytmy rozszyfrują sygnały natury

Innym ciekawym zastosowaniem tych badań jest możliwość interpretacji sygnałów wysyłanych przez naturę. Naukowcy jako przykład podają proces fotosyntezy czy reakcji roślin na zjawiska pogodowe i zewnętrzne. Wysyłane przez rośliny sygnały, a co za tym idzie – dane, potencjalnie mogą więc być odczytywane jako komunikaty. W przyszłości ludzie mogliby reagować na reakcje natury, co pomogłyby przewidywać niebezpieczne zjawiska pogodowe i klęski żywiołowe, takie jak: monsuny, trzęsienia ziemi, powodzie czy tsunami. Wszystko to mogłoby odbywać się przy pomocy opracowanych algorytmów sztucznej inteligencji i głębokiego uczenia. Choć wspomniane technologie są dopiero na etapie prac laboratoryjnych, dają one nadzieję na realne i bardzo potrzebne rozwiązania.

[1] http://naukawpolsce.pap.pl/aktualnosci/news%2C33799%2Csztuczna-inteligencja-przeksztalca-sygnaly-z-mozgu-na-zdania.html.

Powiązane wpisy

Summa Linguae korzysta z plików cookie dla lepszego rozumienia sposobu korzystania ze strony internetowej. Dalsze korzystanie z tej strony internetowej jest równoznaczne z wyrażeniem zgody na politykę cookies.

Więcej