Google завершив свою презентацію I/O одним великим сюрпризом: поглянувши на свої останні окуляри AR. Ключовою особливістю, яку продемонстрував Google, була можливість бачити перекладені мови прямо на ваших очах, що мені здається дуже практичним застосуванням для окулярів AR. Хоча значна частина Силіконової долини вкладає значні кошти у те, щоб зробити окуляри AR реальністю, поки що ніхто не запропонував справді «вбивчу» програму для AR, яка дозволила б вам не помітити широкий спектр проблем конфіденційності, притаманних технологіям. Живий переклад усного слова, безумовно, буде вбивчою функцією.
Компанія не поділилася жодними подробицями про те, коли вони можуть бути доступні, і лише продемонструвала їх у записаному відео, яке насправді не показує дисплей або як ви з ними взаємодієте. Але те, що було показано у відео, намалювало дуже круту картину потенційного майбутнього AR.
В одній демонстрації менеджер з продукту Google каже комусь, хто носить окуляри, що «ви повинні бачити те, що я говорю, щойно транскрибований для вас у режимі реального часу. Начебто субтитри для всього світу». Пізніше відео показує, що ви можете побачити, якщо ви носите окуляри: коли динамік перед вами, мова перекладу з’являється в режимі реального часу у вашому полі зору.
Поки вони не стануть справжнім продуктом, який ми зможемо спробувати, ми не будемо знати, наскільки добре вони можуть працювати на практиці. І неясно, чи це продукт Google Project Iris, про який ми повідомляли в січні, чи щось зовсім інше. Але бачення Google, показане на I/O, якщо воно спрацює, було б неймовірно корисним. Ви можете переглянути відео самостійно саме тут.