Я думаю, что сильно недооценил влияние iOS 16 и ее новой функции «Поднять объект с фона». Это новый уровень изображений, который коренным образом меняет то, как вы можете взаимодействовать с платформой 15-летней давности.
Давайте начнем с того, что проясним кое-что: следующее большое обновление мобильной платформы Apple, iOS 16, все еще находится в нескольких месяцах от окончательного выпуска и в настоящее время находится только в бета-версии для разработчиков. Публичная бета-версия может появиться уже на следующей неделе (3 июля). Это означает, что, хотя я могу рассказать о том, что узнал, я не могу показать вам больше, чем то, что мы все видели во время выступления Apple WWDC 2022 в прошлом месяце.
Конечно, демонстрация того, как кто-то берет бульдога с фотографии и небрежно бросает его в сообщение, сама по себе была довольно крутой. Однако на самом деле использовать его — это нечто иное.
Погоди
Насколько я могу судить, не имеет значения, какую фотографию из вашей библиотеки вы используете, или даже ее возраст. Практически любая фотография с четким объектом (или объектами) подходит для функции «Поднять объект с фона».
В своей библиотеке я открыл фотографии, снятые на iPhone 13 Pro, iPhone 8 Plus, iPhone 7 и iPhone 6, и смог выбрать объекты на всех из них.
Как показано в основном докладе, вы открываете фотографию на iPhone и прикладываете палец к объекту (или нескольким объектам, так как он позволяет вам захватить группу людей). Вы знаете, что ваш iPhone находит объект благодаря классному визуальному эффекту, который выделяет объект и переносит его под контроль вашего пальца.
Как Apple сообщила мне в прошлом месяце, способность идентифицировать объекты является частью быстро развивающейся технологии сегментации изображений компании. Apple использует его на экране блокировки, чтобы поместить только объект изображения перед временем. В случае «Поднять объект с фона» он позволяет выбирать и перемещать объект фотографии практически в любом месте.
Это более
Я думаю, что понял то, что увидел во время основной демонстрации WWDC, но только когда я сам попробовал функцию «Поднять тему из фона», я понял радикальные изменения iOS, которые происходят вместе с ней.
Посмотрите, круто, что iOS 16 может определить и поднять любой предмет (человека, цветок, птицу, собаку) с фотографии. Чего я не понял, так это того, как вы можете перенести эту тему в другое место. Это не функция вырезания и вставки; это также не функция редактирования фотографий, как Magic Eraser в Google Pixel. Это больше похоже на поездку на ковре-самолете с мобильной платформы.
Как только я выбрал объект, я на мгновение остановился, пытаясь понять, что делать с плавающим изображением под моим пальцем. Как я могу получить его в сообщениях, как это было во время демонстрации WWDC?
Инстинктивно я держал один палец на объекте, а другой рукой коснулся экрана и провел снизу вверх, чтобы получить доступ к главному экрану. Затем я выбрал «Сообщения».
Я обнаружил, что могу навести захваченное изображение на список сообщений и перетащить его в одну из цепочек или сразу перейти к открытому диалогу сообщений.
В качестве альтернативы я мог открыть другое приложение, такое как Notes или Keynote, и зайти в него. Пока я держал палец на захваченном объекте, я мог делать все, что хотел, другой рукой, включая запуск новых приложений или смахивание одной трети экрана. путь из нижней части экрана, чтобы получить доступ ко всем моим открытым приложениям и выбрать то, в которое я хотел добавить свою тему.
Я не мог припомнить, чтобы iOS 16 работала таким образом раньше, как многооконная система.
Это странно, круто и явно отличается от предыдущих версий iOS. У нас всегда было мультисенсорное управление, но это похоже на мультимодальное сенсорное управление — и с довольно дикой новой функцией изображения в придачу.
Вполне возможно, что функция «Поднять тему с фона» претерпит множество изменений, прежде чем Apple выпустит финальную версию iOS 16 осенью, но я не думаю, что она отступит от этого почти революционного изменения (которое также работает в iPadOS 16). Это начало чего-то большого.