Астрофотографія: Google показує, як Pixel 4 прибиває ці нічні кадри

Google

Режим астрофотографії Google, який нещодавно запустився з Pixel 4 перед тим, як прибути на пристрої Pixel 2 і 3, став хітом серед шанувальників нічного неба.

Використовуючи додаток Google Camera, режим астрофотографії дозволяє знімати приголомшливі кадри зірок, які зазвичай включають фотозйомку набагато громіздкішу та дорожчу, ніж простий смартфон.

Настільки зацікавившись цією функцією, технічний гігант цього тижня вирішив запропонувати деяке розуміння того, як вона працює, пояснивши деякі її хитросплетіння у дописі в блозі.

Режим астрофотографії є, по суті, більш вдосконаленою версією Night Sight, потужною функцією недостатнього освітлення, яка вийшла з Pixel 3 у 2018 році.

"Цьогорічна версія програми Night Sight розсуває межі фотографії при слабкому освітленні за допомогою телефонних камер", - написала команда з фотографії Google у дописі. «Дозволяючи експозицію до 4 хвилин на Pixel 4 та 1 хвилину на Pixel 3 та 3a, остання версія дозволяє робити чіткі та чіткі знімки зірок на нічному небі або нічних пейзажів без штучного світла . "

Google

Публікація охоплює досить глибоку землю, зокрема те, як ця функція допомагає уникнути тремтіння камери та розмитості від руху в кадрі шляхом поділу довгих експозицій на кілька кадрів перед автоматичним вирівнюванням їх для створення чіткого зображення.

У режимі астрофотографії час експозиції Pixel 4 на кадрі триває не більше 16 секунд максимум на 15 кадрів. Більш довгий опромінення створить так звані «зоряні стежки», спричинені небесними тілами, що «рухаються» по небу. Хоча деякі астрофотографи люблять робити знімки зірковими слідами, функція Google має на меті створювати зображення, які роблять зірки "схожими на світлові точки".

У статті Google також пояснюється, як програмне забезпечення працює з так званими теплими та гарячими пікселями, крихітними яскравими крапками, які можуть з’являтися при тривалішій експозиції, зафіксованій датчиками цифрової камери.

За даними Google, теплі та гарячі пікселі можна ідентифікувати "шляхом порівняння значень сусідніх пікселів у тому самому кадрі та по всій послідовності кадрів, записаних для фотографії, та пошуку відхилень". Після знаходження піксель потім приховується, замінюючи його значення на середнє значення сусідів. "Оскільки початкове значення пікселя відкидається, інформація про зображення втрачається, але на практиці це помітно не впливає на якість зображення", - заявив Google.

Далі мова йде про те, як програмне забезпечення освітлює дисплей, щоб допомогти композиції, і як йому вдається забезпечити різке фокусування в складних умовах недостатнього освітлення.

Це також пояснює, як воно використовує машинне навчання, щоб зменшити шум і вибірково затемнити небо, створюючи більш реалістичне враження від сцени того часу, і роблячи ці зірки та решту зображення справді попсовими.

Статтю ви можете знайти тут.

Останні повідомлення

$config[zx-auto] not found$config[zx-overlay] not found