Если бы в рейтинге лаборатории DxOMark, оценивающей камеры смартфонов, была номинация «Самый необычный камерофон», в ней бы гарантированно победил Google Pixel. Всё-таки добиться от одиночной камеры способности делать портретные снимки, стабилизировать изображение и осветлять фотографии, сделанные в темноте, так, чтобы они выглядели максимально естественно, при помощи одних только программных алгоритмов дорогого стоит. Несмотря на то что поначалу такой путь развития выглядел довольно необычно, постепенно многие компании, и Apple в том числе, пришли к тому, что нет ничего плохого в программном улучшении снимков.
Читайте также: Как в приложении «Камера» на iOS изменить разрешение и частоту кадров
Чтобы усовершенствовать качество фотографий, сделанных на камеру iPhone, Apple приобрела стартап Spectral Edge, который занимается разработкой программной методики повышения уровня детализации снимков и улучшения цветопередачи. Она является сочетанием запатентованной технологии Image Fusion и Deep Learning, совместная работа которых позволяет получать фотографии более продвинутого уровня без необходимости задействовать продвинутую оптику и другие аппаратные компоненты, от которых обычно зависит качество снимков.
Как нейронные сети делают фотографии лучше
Очевидно, Spectral Edge просто имеет доступ к большой базе данных с фотографиями, сделанными в тех или иных сценариях. Как и любая нейронная сеть, разработка стартапа постоянно обращается к ним и, анализируя сделанный пользователем снимок, сравнивает его с теми, на которых он учился, а потом просто подкрашивает или делает контрастнее те области, которые кажутся ей недостаточно яркими. То же самое, скорее всего, происходит и с детализацией. Ведь все знают, что ИИ уже научился дорисовывать какие-то детали на фотографиях, поэтому нет ничего удивительного, что Spectral Edge повышает ещё и чёткость снимка.
Подпишись на наш новостной канал в Telegram, чтобы постоянно быть в курсе последних новостей из мира Apple.
У Apple уже есть собственные наработки в этой области. Технология Deep Fusion, которую компания представила в этом году, делает примерно то же самое, что и Spectral Edge. Она анализирует уже готовую фотографию и самостоятельно повышает детализацию и «докручивает» цвета там, где необходимо. На выходе получается снимок даже более высокого качества, чем можно было добиться без применения Deep Fusion, которая в большинстве случаев выдаёт отличный результат, не позволяя даже предположить факт постобработки.
Читайте также: Это снимки, сделанные на iPhone 11 с помощью Deep Fusion. Что это?
Применение программных алгоритмов и нейронных сетей, бесспорно, позволяет сделать фотографии лучше, однако, по мнению фотографов, это обычный обман. Ведь если снимок подвергается обработке, в ходе которой «выкручивается» насыщенность, контрастность и детали, то это уже не настоящий снимок. Он не позволяет определить реальные способности того, кто снял этот кадр, и, по сути, оставляет меньше пространства для творчества. Всё-таки, когда фотографию делает не человек, а искусственный интеллект, страдает правдоподобность, и её ценность от этого уменьшается.
Фото с ИИ — обман или норма
Лично мне довольно странно слышать подобные суждения, потому что смартфон – это устройство не для профессиональной съёмки. Как правило, те, кто покупает iPhone, просто хотят получать на выходе красивые фотографии, которыми не стыдно поделиться в социальных сетях и выложить в Instagram. Поэтому нет ничего удивительного в том, что производители осознанно идут на такую хитрость, применяя искусственный интеллект и технологии постобработки, чтобы результат нравился обычным пользователям, а не гикам и профессионалам, жаждущим самостоятельно обработать кадр или «увести» его в чб.