Окуляри для перекладу доповненої реальності від Google, як і раніше, є лише парою

Окуляри для перекладу доповненої реальності від Google, як і раніше, є лише парою

Наприкінці своєї презентації вводу-виводу в середу Google витягнув сюрприз типу «ще одна річ». У короткому відео Google продемонстрував пару окулярів доповненої реальності, які мають одну мету — відображати звуковий переклад мов прямо перед вашими очима. У відео менеджер з продуктів Google Макс Спір назвав можливості цього прототипу «субтитри для всього світу», і ми вперше бачимо, як члени сім’ї спілкуються.

А тепер зачекайте секунду. Як і багато людей, ми раніше користувалися Перекладачем Google і в основному вважали його дуже вражаючим інструментом, який дає багато незручних осічок. Хоча ми можемо довіряти йому, щоб дати нам маршрут до автобуса, це зовсім не те саме, що довіряти йому правильно інтерпретувати та передавати історії дитинства наших батьків. І хіба Google раніше не казав, що нарешті зламає мовний бар’єр?

У 2017 році Google представив переклад у режимі реального часу як функцію оригінальних навушників Pixel Buds. Наш колишній колега Шон О’Кейн описав цей досвід як «похвальну ідею з жалюгідним виконанням» і повідомив, що деякі з людей, з якими він спробував це, сказали, що це звучало так, ніби він був п’ятирічним. Це не зовсім те, що Google показав у своєму відео.

Крім того, ми не хочемо відкидати той факт, що Google обіцяє, що цей переклад відбудеться всередині окулярів AR. Щоб не вдарити у хворе місце, але реальність доповненої реальності насправді навіть не наздогнала концептуальне відео Google десятирічної давності. Ви знаєте, той, який був попередником дуже зневаженого та соромного для носіння Google Glass?

Чесно кажучи, окуляри для перекладу AR від Google здаються набагато більш зосередженими, ніж те, чого намагався досягти Glass. З того, що Google показав, вони призначені для виконання однієї речі — відображення перекладеного тексту — а не для роботи з комп’ютером, який міг би замінити смартфон. Але навіть тоді зробити окуляри AR непросто. Навіть помірна кількість навколишнього світла може ускладнити перегляд тексту на прозорих екранах. Читати субтитри на телевізорі з деякими відблисками сонця через вікно досить складно; а тепер уявіть собі цей досвід, але прив’язаний до вашого обличчя (і з додатковим тиском участі в розмові з кимось, кого ви самі не можете зрозуміти).

Але технологія розвивається швидко — Google, можливо, зможе подолати перешкоду, яка заважає його конкурентам. Це не змінило б того факту, що Google Translate не є чарівною кулею для міжмовної розмови. Якщо ви коли-небудь пробували вести реальну розмову за допомогою програми для перекладу, то, напевно, знаєте, що говорити потрібно повільно. І методично. І чітко. Якщо ви не хочете ризикнути зі спотвореним перекладом. Одна помилка, і ви можете просто закінчити.

Люди не спілкуються у вакуумі, як це роблять машини. Подібно до того, як ми перемикаємо код під час розмови з голосовими помічниками, такими як Alexa, Siri або Google Assistant, ми знаємо, що маємо використовувати набагато простіші речення, коли маємо справу з машинним перекладом. І навіть якщо ми говоримо правильно, переклад все одно може вийти незручним і невірним. Деякі з наших двор Колеги, які вільно володіють корейською мовою, відзначили, що власний зворотний відлік Google перед записом для введення/виводу відображає почесну версію «Welcome» корейською, яку насправді ніхто не використовує.

Цей м’яко сором’язливий грип блідне в порівнянні з тим, що, згідно з твітами від Рамі Ісмаїла і Сем ЕттінгерGoogle показав на слайді понад півдюжини зворотних, зламаних або інших неправильних сценаріїв під час презентації Translate. (Android Police зазначає, що співробітник Google визнав помилку і що її було виправлено у версії основної доповіді на YouTube.) Щоб було зрозуміло, ми не очікуємо досконалості, але Google намагається сказати нам, що це близьке до зламу перекладу в реальному часі , і такі помилки роблять це неймовірно малоймовірним.

Google намагається вирішити проблему надзвичайно складна проблема. Перекладати слова легко; зрозуміти граматику важко, але можливо. Але мова і спілкування набагато складніші, ніж просто ці дві речі. Як відносно простий приклад, мати Антоніо розмовляє трьома мовами (італійською, іспанською та англійською). Іноді вона буде запозичати слова з мови на мову в середині речення, включаючи свій регіональний італійський діалект (який є як четвертою мовою). Людині відносно легко розібрати такий тип речей, але чи зможуть з цим впоратися прототип окулярів Google? Не зважайте на складніші частини розмови, як-от незрозумілі посилання, неповні думки чи інсинуації.

Це не те, що мета Google не викликає захоплення. Ми абсолютно хочемо жити у світі, де кожен може відчути те, що роблять учасники дослідження у відео, дивлячись із широко розплющеними очима, коли вони бачать слова своїх близьких. Знищення мовних бар’єрів і розуміння один одного так, як ми раніше не могли, – це те, чого світ потребує набагато більше; просто попереду ще довгий шлях до того майбутнього. Машинний переклад тут і існує вже давно. Але незважаючи на безліч мов, якими він може володіти, він ще не розмовляє по-людськи.


Пов’язані:

Залишити коментар

Ваша e-mail адреса не оприлюднюватиметься.