Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Когда функция Visual Intelligence от Apple была впервые представлена, она позволяла пользователям наводить камеру совместимого телефона на окружающие предметы, чтобы выполнить поиск изображений в Google или задать вопросы через ChatGPT. На WWDC 2025 компания продемонстрировала обновления, расширяющие полезность Visual Intelligence, в основном за счет интеграции ее в систему скриншотов. В пресс-релизе компании говорится: "Visual Intelligence уже помогает пользователям узнавать о предметах и местах вокруг них с помощью камеры iPhone, а теперь позволяет делать больше и быстрее с контентом на экране iPhone". Это напомнило мне о "осведомленности об отображаемом на экране", которую Apple описывала как одну из возможностей Siri при анонсе Apple Intelligence в прошлом году. В том же пресс-релизе компания заявила: "Благодаря осведомленности об отображаемом на экране, Siri сможет понимать и выполнять действия с контентом пользователей в большем количестве приложений со временем". Хотя это не совсем одно и то же, обновленная система скриншотов Visual Intelligence позволяет вашему iPhone предлагать контекстные действия на основе отображаемого контента, но не через Siri. В определенной степени это логично. Большинство людей уже привыкли делать скриншот, когда хотят поделиться или сохранить важную информацию, увиденную на веб-сайте или в публикации Instagram. Интеграция действий Apple Intelligence здесь теоретически поместит инструменты туда, где вы их ожидаете, вместо того чтобы заставлять пользователей разговаривать с Siri (или ждать выхода обновления).
В iOS 26 (на устройствах, поддерживающих Apple Intelligence), нажатие кнопок питания и уменьшения громкости для создания скриншота приведет к появлению новой страницы. Вместо миниатюры сохраненного изображения в нижнем левом углу вы увидите изображение, занимающее почти весь дисплей, с опциями для редактирования, публикации или сохранения файла, а также для получения ответов и действий на основе Apple Intelligence внизу. В нижнем левом и правом углах расположены опции для запроса к ChatGPT и выполнения поиска изображений в Google соответственно. В зависимости от содержимого скриншота, Apple Intelligence может предлагать различные действия под изображением. Это может быть запрос о том, где купить аналогичный предмет, добавление события в календарь или идентификация типов растений, животных или продуктов питания, например. Если на скриншоте много всего происходит, вы можете выделить объект, чтобы получить информацию, относящуюся конкретно к этой части изображения (аналогично выбору объекта для удаления в Фото).
Здесь также могут появиться сторонние приложения или сервисы, поддерживающие App Intents, такие как Google, Etsy и Pinterest, чтобы вы могли выполнять действия в этом пространстве. Например, если вы нашли понравившийся подставку для книг, сделали скриншот и идентифицировали ее, вы можете купить ее на Etsy или закрепить на Pinterest.
Один аспект этого обновления Visual Intelligence вызывает у меня некоторые опасения: для таких людей, как я, которые делают скриншоты бессмысленно и не хотят ничего делать, кроме как получать квитанции, это может добавить неприятный шаг между захватом скриншота и сохранением его в Фото. Звучит так, будто вы можете отключить этот интерфейс и использовать существующую систему скриншотов.
Примеры, которые Apple привела для способности Siri понимать, что отображается на экране, кажутся несколько похожими. В своем пресс-релизе прошлого года Apple заявила: "Например, если друг отправляет пользователю свое новое адрес в Сообщениях, получатель может сказать: «Добавь этот адрес в его контактную карточку»". Как и Visual Intelligence в скриншотах, это предполагает сканирование контента на экране на предмет важной информации и помощь в размещении его в месте (например, в Контактах или Календаре), где он наиболее полезен. Однако обещание новой эры Siri заключалось в большей степени во взаимодействии со всеми частями вашего телефона, как в приложениях, разработанных Apple, так и в сторонних приложениях. Таким образом, вы могли попросить помощника открыть статью, добавленную в Список чтения в Safari, или отправить фотографии с определенного события контакту.
Очевидно, что Apple еще предстоит реализовать эти усовершенствования для Siri, и, как сказал Крейг Федериги на ключевом выступлении WWDC 2025, об этом можно будет поговорить позже в этом году. Тем не менее, пока мы ждем этого обновления статуса, изменения, которые грядут в скриншотах, могут быть предвестником того, что нас ждет в будущем.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...