Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Одним из главных анонсов Google I/O стало официальное возвращение компании в игру смешанной реальности с собственными прототипными XR-очками. Прошло несколько лет с тех пор, как мы видели что-то существенное от поискового гиганта в области AR/VR/XR, но с целым рядом аппаратных партнеров, поддерживающих его XR-платформу, похоже, ситуация наконец меняется. После основной презентации Google продемонстрировал очень короткий ролик с прототипом устройства, которое мы видели на сцене. Мне удалось провести с устройством всего несколько минут, поэтому мои впечатления, к сожалению, весьма ограничены, но я сразу был впечатлен тем, насколько легкими были очки по сравнению с прототипом Orion от Meta и AR-очками Spectacles от Snap. В то время как оба этих устройства довольно громоздкие, прототип Google был легким и ощущался больше как обычные очки. Оправа была немного толще, чем та, которую я обычно ношу, но не намного.
В то же время, есть некоторые заметные различия между XR-очками Google и тем, что мы видели от Meta и Snap. Устройство Google имеет дисплей только на одной стороне — на правом глазу, как видно на изображении в начале этой статьи — поэтому визуальные эффекты скорее "беглого взгляда", чем полностью иммерсивные. Я отметил во время демонстрации Google на I/O, что поле зрения выглядит узким, и могу подтвердить, что оно ощущается гораздо более ограниченным, чем даже 46-градусное поле зрения Snap (Google отказался делиться конкретными данными о ширине поля зрения своего прототипа). Вместо этого дисплей показался мне немного похожим на то, как вы можете использовать фронтальный дисплей складного телефона. Вы можете быстро посмотреть время и уведомления, а также небольшие фрагменты информации из ваших приложений, например, какую музыку вы слушаете.
Очевидно, что Gemini призван играть важную роль в экосистеме Android XR, и Google показал мне несколько демонстраций работы ассистента на смарт-очках. Я мог посмотреть на дисплей с книгами или произведениями искусства на стене и задать Gemini вопросы о том, что я вижу. Это было очень похоже на мультимодальные возможности, которые мы видели в Project Astra и в других местах. Однако даже в тщательно срежиссированной демонстрации были некоторые ошибки. Gemini начал рассказывать мне о том, что я вижу, прежде чем я закончил задавать свой вопрос, что привело к неловкой паузе, когда мы оба прервали друг друга.
Одним из более интересных вариантов использования, которые показывал Google, был Google Maps в очках. Вы можете получить вид на предстоящий поворот, как в AR-навигации Google, и посмотреть вниз, чтобы увидеть небольшой фрагмент карты на полу. Однако, когда я спросил Gemini, сколько времени потребуется, чтобы доехать из моего местоположения в Сан-Франциско, он не смог дать ответ. (Он фактически сказал что-то вроде "вывод инструмента", и моя демонстрация закончилась очень быстро после этого.)
Как и во многих других демонстрациях смешанной реальности, которые я видел, очевидно, что пока еще очень рано. Google подчеркнул, что это прототипное оборудование, призванное продемонстрировать возможности Android XR, а не устройство, которое он планирует продавать в ближайшее время. Поэтому любые смарт-очки, которые мы получим от Google или его аппаратных партнеров, могут выглядеть совершенно по-другому. Однако те несколько минут, которые я провел с Android XR, показали, как Google думает о объединении ИИ и смешанной реальности. Это не так уж отличается от Meta, которая считает смарт-очки ключевым фактором для долгосрочного внедрения своего ИИ-ассистента. Но теперь, когда Gemini будет представлен практически во всех продуктах Google, у компании есть очень прочная основа для достижения этой цели.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...