Matryca aparatu fotograficznego

Co powoduje że aparat może zostać uznany jako dobry? Że efekt końcowy, czyli zdjęcie będzie pożądanej jakości? Uważa się, że są to matryca i optyka.


Często też zwraca się uwagę na znaczenie oprogramowania, które to m.in. narzuca nam algorytmy odszumiania. Matryca i obiektyw mają za zadanie zarejestrowanie zdjęcia w jak najlepszej jakości. Natomiast zadaniem oprogramowania jest zapis tego zdjęcia (z matrycy na nośnik pamięci) do konkretnego formatu bez zbędnych strat na jakości. Jeżeli użytkownik wybierze (jeżeli jest taka możliwość) zapis zdjęcia do formatu RAW wówczas na kartę pamięci zastaną zapisane nieprzetworzone dane wygenerowane przez matrycę. W tym wypadku o stratach nie ma mowy. Natomiast w przypadku zapisu zdjęcia do formatu .JPG (.JPEG) w wyniku procedury powstawania pliku wynikowego takie straty powstają. 

Proces taki składa się z kilku etapów:
  1. Przetwarzanie A/C + dodawanie informacji o matrycy
  2. Interpolacja Bayera
  3. Balans, bieli, kontrast, nasycenie, wyostrzenie
  4. Kompresja JPG
Co to jest matryca?

Pojęcia matryca w znaczeniu ogólnym używamy dla określenia formy do wykonywania kopii. W fotografii cyfrowej matryca zastąpiła chemiczny nośnik światłoczuły (fotografia analogowa). Matryca taka rejestruje kopie obrazu, który to trafia do niej w postaci wiązki świetlnej przez obiektyw (tzw. ścieżka optyczna). Jest ona obok optyki jednym z najistotniejszych elementów w aparacie determinującym jakość zdjęć. Ludzie często błędnie określają mianem matrycy wyświetlacz aparatu fotograficznego.

Rodzaje matryc:

Na rynku dominują dwa rodzaje matrycy, są to CCD i CMOS.
CCD – Każdy z elementów światłoczułych rejestruje, a następnie pozwala odczytać sygnał elektryczny proporcjonalny do ilości padającego na niego światła.

CMOS – Nowsza generacja matryc, w których to każdy z pikseli ma swój przetwornik napięcia, więc wykazuje większa niezależność od innych, sąsiednich pikseli. Dzięki temu, gdy dany piksel nie doczyta sygnału lub zarejestruje go niepoprawnie, to tylko on pozostanie z defektem, a nie jak w przypadku matrycy CCD też inne sąsiednie.

Matryce CMOS oprócz małych zakłóceń w przesyłaniu danych wykazują mniejsze zapotrzebowanie na energię, szybki odczyt i możliwość odczytu wybranych pikseli (wykorzystywane przy ustawianiu ostrości).

Jako wady matryc CMOS wymienia się mniejszą dynamikę, szybciej powstające zakłócenie przy długich czasach naświetlania i niejednorodne parametry poszczególnych pikseli przy danym oświetleniu utrudniające proces ujednolicenia odczytu.

Matryce typu CMOS są coraz bardziej popularne a ich przewaga uwidacznia się szczególnie w lustrzankach. Pierwsze próby zastosowania tych matryc w aparatach kompaktowych były nieudane. Wraz ze wzrostem czułości (mało światła) następował nieproporcjonalnie szybki przyrost zaszumienia. Natomiast teraz to wszystko jest dopracowywane i coraz więcej aparatów kompaktowych jest wyposażana w CMOS. Oczywiście można dyskutować czy aby na pewno to CMOS jest lepsze od CCD..ale mimo rozmaitych, często uzasadnionych wątpliwości, wiele wskazuje na to, że tendencja wypierania CCD przez CMOS zostanie podtrzymana. Przyjęło się powszechnie, że CMOS to matryca nowej generacji o bardziej złożonej konstrukcji i to oczywiście jest prawdą. Zazwyczaj kończy to rozważania w tym temacie, już dalej się nie analizuje się plusów i minusów matryc CMOS. Czy istotne jest jaką będziemy mieli matryce w swoim aparacie? Oczywiście to jest ważne, ale nie najważniejsze, szczególnie w przypadku aparatów kompaktowych.

Ilość pikseli

Czy ilość pikseli jest istotna? Jest, ale nie zawsze im więcej tym lepiej. Często klienci nie wiedząc czym się kierować przy wyborze aparatu zwracają uwaga na ilość pikseli, czasami tylko i wyłącznie na to. Może wynika to z czasów, kiedy pierwsze aparaty cyfrowe miały po 2 megapiksele i wtedy rzeczywiście 3, 5 pikseli to niewątpliwie było coś lepszego. Niestety okazało się, że ta zasada działa tylko do pewnego momentu. Po przekroczeniu przyjmijmy (bo to jest wartość umowna) 8 mpx aparaty, a właściwie ich matryce zaczęły generować nadmierne zaszumienie, czyli defekty jakościowe. Po prostu pikseli było za dużo, za gęsto. Więcej pikseli pozwala nam wykonać większe zdjęcie, mniej daje nam za to lepsza jakość zdjęcia w postaci mniejszego zaszumienia.

Wielkość matrycy

Chodzi tu o wielkość fizyczną. Jest to bardzo istotny aspekt. Można tu bez nadużycia uogólnić – im większa tym lepsza. Te większe matryce są stosowane a aparatach z wyższej półki. Załóżmy że mamy 10 mpx na matrycy w aparacie kompaktowym o wielkości 1/1.7 (9,5 x 7,6 x5,7 mm) i tyle samo pikseli na matrycy w lustrzance na matrycy formatu DX (28,4 x 23,6 x 15,8 mm). Oczywiste w tym przypadku jest że mniejsze zagęszczenie piksli i lepsza jakość będzie na matrycy większej tj. DX.

 
Reasumując, matryca jest obok optyki najistotniejszym elementem cyfrowego aparatu fotograficznego. Rejestruje obraz i determinuje jakość zdjęcia. Matryce różnią się wielkością, ilością megapikseli oraz rodzajem (CCD i CMOS).

W matrycach typu CMOS każdy piksel ma swój przetwornik napięcia, czyli pracuje niezależnie od innych. Dlatego jeżeli błędnie zarejestruje lub nie zarejestruje obrazu, nie wpływa na inne piksele. Z reguły przekłada się to na lepszą jakość, szczególnie przy matrycach większych fizycznie.

Większa ilość pikseli stwarza możliwość zrobienia większego zdjęcia. Z takiego zdjęcia możemy wydrukować nawet ogromne plakaty. Z drugiej strony powoduje ona większe zagęszczenie pikseli (szczególnie na małych fizycznie matrycach) co jednoznacznie negatywnie wpływa na jakość zarejestrowanego obrazu w postaci większego zaszumienia i mniejszej ilości szczegółów.

Im większe fizycznie matryca tym lepiej. Niestety te większe są droższe w produkcji i są najczęściej stosowane w aparatach z wyższej półki.

Makrofotografia i obiektyw do makrofotografii

Pojęć makro i makrofotografia, potocznie używa się naprzemiennie, ja również w poniższym poście przyjąłem taką formułę. Dla wielu ludzi makro to po prostu zdjęcie zrobione z bliska małemu obiektowi. Tak właśnie wygląda efekt makrofotografii, ale podobnie może wyglądać efekt zrobienia zwykłego zdjęcia na przykład aparatem kompaktowym. 


Różnica jest jednak zasadnicza jeżeli chodzi o jakość takiego zdjęcia, a głównie o odwzorowanie szczegółów.

Makrofotografia i obiektywy do niej

Makrofotografia oznacza że fotografowany obiekt jest odwzorowywany w naturalnych rozmiarach. Czyli obiektyw do makrofotografii pozwala na zapis tego obiektu w stosunku 1:1. Mówimy tutaj o skali odwzorowania. Standardowe obiektywy mają mniejsze skale odwzorowania 1:4, 1:8, są też obiektywy z tzw. funkcją makro potrafiące odwzorować obiekt w skali 1:2 (czyli dwa razy mniejszy niż w rzeczywistości) np. Sigma 70-300mm z funkcja makro. Warto zwrócić uwagę że typowe obiektywy do makrofotografii są obiektywami stałoogniskowymi np. 85mm lub 105mm


Makro w kompaktach
Jak zasugerowałem na wstępnie makro w aparatach kompaktowych nie jest prawdziwym makro. Możemy powiedzieć że jest to funkcja makro a jej istota polega, nie na odwzorowaniu obiektu w stosunku 1:1, lecz tylko na zrobieniu zdjęcia z bliskiej odległości. Jeżeli przełączymy nasz aparat kompaktowy lub on sam się przełączy (pracując w trybie automatycznym) na funkcje makro, będzie on mógł ustawić ostrość z bliższej odległości niż ma to miejsce przy fotografowaniu w pozostałych trybach pracy.

Oznaczenia
Obiektywy do makrofotografii są rożnie oznaczane przez producentów. Zazwyczaj jest to symbol makro, macro, mikro (Nikkor) ale czasami może być podana tylko skala odwzorowania – 1:1.

Wady optyczne obiektywów

Jednym z najistotniejszych elementów konstrukcji aparatu, oprócz matrycy jest obiektyw. Miarą jakości obiektywu jest jego rozdzielczość oraz jak najmniejsza ilość wad optycznych. Wady te są nieuniknione i obecne głównie w obiektywach z większa ilością soczewek przez które w jak najlepszym stanie musi się przedostać wiązka świetlna, która później zostanie przekształcona w zdjęcie. 


Powszechnie wiadomo że najlepszymi obiektywami są zazwyczaj obiektywy stało ogniskowe z małą ilością szkieł. Jednak potrzeby fotografów i różne wyzwania które przed nimi stoją wymuszają rozbudowane konstrukcje typu zoom, czy o ekstremalnie dużych ogniskowych, w których to znajdujemy nawet po kilka grup soczewek. Współczesny świat stawia konstruktorów przed trudnym zadaniem minimalizowania wad o których pokrótce poniżej.
  
Aberracja chromatyczna – różna odległość ogniskowania poszczególnych barw światła wynikająca z różnej wartości współczynnika załamania powoduje niebieskie i pomarańczowe obwódki wokół ciemnych przedmiotów na jasnym tle.

Aberracja sferyczna – inna długość ogniskowania promieni świetnych ze względu na ich położenie pomiędzy środkiem a brzegiem układu optycznego powoduje spadek ostrości w całym polu widzenia.

Aberracja komatyczna (koma) – wiązka promieni świetlnych z punktu poza osią optyczną tworzy po przejściu przez układ plamkę w kształcie przecinka lub komety. Stopień zniekształcenia jest tym większy im dalej od osi optycznej układu znajduje się źródło światła

Dystorsja - rożne powiększenie obrazu zależnie od jego odległości do osi optycznej. Rozróżniamy dystorsje beczkowatą – obraz wygięty na zewnątrz i poduszkowatą obraz wklęsły do środka. W obiektywach typu rybie oko dystorsja celowo nie jest korygowana.

Astygmatyzm – promienie padają w dwóch prostopadłych płaszczyznach lecz są ogniskowane w rożnych punktach. W efekcie powstaje obraz nieostry i zniekształcony. Charakterystyczny głównie dla układów asymetrycznych.

Efekt mory- nie jest to wada optyczna, powstaje gdy fotografujemy obiekty składających z bardzo dużej liczby podobnych elementów położonych blisko siebie a rozdzielczość matrycy nie pozwala na ich rozróżnienie. Pojawiają się wtedy różnorakie wzory nie istniejące w rzeczywistości.

Mając na uwadze redukcje efektu mory producenci stosują różne rozwiązania. Nikon przy filtrze dolnoprzepustowym, jako jego element umieszcza filtr nazwany AAF  który ma za zadanie redukcję zniekształceń (aliasing) i kontrole prążków mory. Efektem ubocznym umieszczenia tego filtra jest spadek rozdzielczości obrazu. 

Dlatego czasem powstają dwie wersje aparatu z filtrem AAF i bez niego. Przykładem jest tutaj Nikon D800 z filtrem AFF i jego odpowiednik bez tego filtra Nikon D800E – oferujący lepszą rozdzielczość, ale bez kontroli zjawiska mory. Nikon D800E jest zetem kierowany do użytkowników mających kontrolę nad efektem mory, czyli fotografujących w studiu oraz krajobrazy.

Aliasing jest to zjawisko powstające miedzy innymi przy zmniejszaniu rozdzielczości. Zjawisko to wynika z charakterystyki pikseli a objawia się schodkami na ukośnych lub krzywych liniach.

Dyfrakcja jest to zaburzenie kierunku światła gdy przechodzi ono blisko krawędzi, inaczej mówiąc rozczepienie się fali świetlnej przechodzącej przez mały otwór, czyli w fotografii głównie przy wysokiej przysłonie. Dyfrakcja powoduje rozmycie, spadek ostrości i co za tym idzie utratę szczegółów na zdjęciu.

Refrakcja zmiana kierunku rozchodzenia się fali (załamania fali), związana ze zmiana jej prędkości gdy przechodzi do innego ośrodka (np przez soczewkę w obiektywie). Załamanie fali powoduje zmianę jej długości, natomiast jej częstotliwość pozostaje stała. Na zdjęciach możemy zaobserwować niedokładne odwzorowanie obiektów, szczególnie co do geometrii i położenia.

Winietowanie jest wadą układu optycznego powodującą ciemniejszy obraz przy brzegach kadru. Winietowanie nie zawsze jest widoczne dla ludzkiego oka, niemniej jednak w przypadku obiektywów fotograficznych wydaje się być nieodzowne. Dotyczy to głównie obiektywów o szerokim polu widzenia.

Rozdzielczość obiektywu, wykres MTF

Pojęcie rozdzielczości w fotografii kojarzy się głównie z rozdzielczością matrycy, czyli jej zdolnością do odwzorowania osobnych położonych blisko siebie punktów jako rozdzielnych, jednym słowem jej dokładności. 


Równie istotna jest rozdzielczość obiektywu, czyli jego zdolność do odwzorowywania punktów, określana głównie w liniach na milimetr. Rozdzielczość obiektywu jest najlepsza w centrum kadru a najgorsza na jego brzegach. Jest ona zależna od wad optycznych – im ich mniej, tym rozdzielczość lepsza. Rozdzielczość jest możliwa do przedstawienia na ustandaryzowanym wykresie MTF. 

Wykres MTF (Modulation Transfer Function) przedstawia w sposób graficzny rozdzielczość obiektywu, czyli określa w ustandaryzowany sposób jakość i możliwości obiektywu. Dla obiektywów zmiennoogniskowych przedstawia się rozdzielczość przy najwyższej i najniższej ogniskowej.

Na osi poziomej mamy odległość od centrum kadru w milimetrach, a na pionowej kontrast (im wyższy tym lepsza ostrość), gdzie najwyższa wartość to 1, czyli doskonała transmisja światła – niemożliwa do osiągnięcia ponieważ nie ma idealnie przeźroczystego szkła. 

Linie ciągłe określają parę linii biegnących przez środek z lewego dolnego rogu do prawego górnego rogu, a przerywane z lewego górnego do prawego dolnego. Czyli prostopadle do siebie. Linie czerwone są rozmieszczone co 0,1mm (odpowiadają gęstości 10 linii/mm) a niebieskie co 0,33mm (30 linii/mm) – czyli czerwone określają możliwości w zakresie odwzorowania obiektywu dla małej rozdzielczości, a niebieskie dla dużej.
Jak to jest z tymi filtrami? Załóżmy, że potrzebujemy filtr polaryzacyjny o średnicy 55mm. Pierwszy sprzedawca powiada – przecież to tylko szkiełko, po co dopłacać, różnica niewielka. Drugi sprzedawca przekonuje nas, że filtr tańszy bardziej przyciemnia ekspozycję, a jego konstrukcja nie sprzyja redukcji odblasków wewnętrznych.
 

Idziemy do sklepu i zależnie od sprzedawcy możemy spotkać dwie wersje porady, no właściwie to trzy. Bo zawsze sprzedawca może nie wiedzieć – też przecież człowiek. No ale czasem widzimy jakie wymagania stawiają pracodawcy w ofertach pracy i widzimy często sprzedawców w akcji. Jest jakiś dysonans? Nie? Więc oczywiście trafiamy na kompetentnego sprzedawce. Na sklepowej półce znajdujemy filtr serii standard za 39 zł, jakieś pośredni za 89 zł i serii premium za 199 zł, a zamówić możemy nawet za kilkaset złotych. 

Pierwszy sprzedawca powiada – przecież to tylko szkiełko, po co dopłacać, różnica niewielka. Drugi sprzedawca przekonuje nas że filtr tańszy bardziej przyciemnia ekspozycję, a jego konstrukcja nie sprzyja redukcji odblasków wewnętrznych. To jest prawda, rzeczywiście szkiełko, lecz co istotne, rożne szkiełko.

W przypadku filtrów największe znaczenie mają powłoki antyrefleksyjne (ilość, rozmieszczenie) sprzyjające redukcji odbić (odblasków) wewnętrznych, materiały użyte w konstrukcji oraz jakość wykonania. Bezsprzeczne jest, iż lepsze konstrukcje w mniejszym stopniu przyciemniają ekspozycję. Informacja o przyciemnianiu ekspozycji jest zazwyczaj umieszczana na opakowaniu w postaci stopni np. 2 EV.

Przyciemnienie ekspozycji jest często błędnie rozumiane i przedstawiane przez sprzedawców, bo zapominają o tym, że pomiar światła w lustrzankach lub innych aparatach, w których używamy filtrów jest wykonywany „przez obiektyw”. Przekładając to na prosty język, aparat weźmie pod uwagę fakt, że „widzi” ciemniej przez ten „okular przeciwsłoneczny” i ustawi odpowiednie parametry np. większe otwarcie przysłony. Więc co nam przeszkadza to przyciemnianie ekspozycji i czy w ogóle nam to przeszkadza? Odpowiedź oczywista – to zależy. Bo w wielu, jak nie w większości sytuacji, nie musi to stanowić większego problemu.

Rozpatrzmy jednak taką sytuację, że jest już dosyć ciemno, chcemy/możemy zrobić zdjęcie „z ręki”, w związku z tym mamy jakoś ograniczy maksymalny czas naświetlania, a właściwości obiektywu nie pozwalają na większe otwarcie przysłony (np. obiektyw z f/3,5-5,6, nie zrobimy 2.8). Podnosić ISO? 

Można, ale oczywiście kosztem jakości. Jeśli chcemy tego uniknąć, zdjęcie z nakręconym na obiektyw filtrem, który nam przyciemni ekspozycję wyjdzie zbyt ciemne. Bez tego filtra, lub z filtrem w mniejszym stopniu przyciemniającym ekspozycję, zapewne by tak nie było.

Inna sytuacja, gdy nie chcemy nadto otwierać przesłony, bo chcemy zachować relatywnie dużą głębie ostrości lub/i nie chcemy za bardzo wydłużać czasu naświetlania, aby zachować efekt „zamrożenia ruchu”. W takim przypadku zdjęcie wykonane z filtrem mocno przyciemniającym ekspozycje również może również wyjść zbyt ciemne.

Jest jeszcze jedno podejście przy wyborze filtrów, którego nie potrafię ocenić, co do zasadności. Otóż klienci kupują do droższych/lepszych obiektywów droższy/lepszy filtr i analogicznie do tańszych/gorszych obiektywów tańszy/gorszy filtr…

Przysłona, głębia ostrości

Przysłoną w fotografii nazywamy element obiektywu regulujący wielkość otworu przez który wpuszczane jest światło na matrycę. Regulacja otworu odbywa się za pomocą tzw. listków, których im więcej tym lepiej ponieważ przysłoną nabiera wtedy bardziej kołowego kształtu – mniej kantów, czyli załamań wiązki świetlnej.


Znaczenie przysłony

Przysłona ma dwojakie znaczenie, bo z jednej strony reguluje nam ilość światła trafiającego na matrycę, a z drugiej głębię ostrości. To jakiej powinniśmy użyć przysłony zależy od warunków zewnętrznych, czyli ile mamy światła zastanego ale również od czasu naświetlania jaki chcemy lub możemy użyć. 

Wartość przysłony

Jest to parametr, który wyraża nam w postaci liczbowej ilość przepuszczanego na matryce światła. Im mniejsza wartość przysłony tym więcej światła obiektyw przepuści. Obiektywy mają oznaczone możliwości przysłony w formie f/1.8 lub f/3,5-5,6. Pierwsze oznaczenie dotyczy tzw. obiektywu ze stałym światłem, a drugie obiektywu za zmiennym światłem. Słowa światło bardzo często używa się jako zamiast przysłony. 

Załóżmy że mamy obiektyw o ogniskowej 18-55 f/3,5-5,6. Oznacza to że przy ogniskowej 18mm możemy otworzyć przysłonę maksymalnie do wartości 3,5 (ale możemy też ustawić przykładowo f/8, f5,6) a przy ogniskowej 55 maksymalnie 5,6 (i wszystkie wartości wyższe np f/16).

Przysłona a głębia ostrości

Przysłona jest głównym narzędziem do manipulacji głębią ostrości, szczególnie w aparatach z dużą fizycznie matrycą jak lustrzanki i bezlusterkowce. Jeżeli chcemy uzyskać mniejszą głębie ostrości (ostry obiekt główny a tło bardziej rozmazane) wartość przysłony musi być niższa, czyli otwór będzie bardziej otwarty. Wówczas jeżeli mamy dużo światła na zewnątrz, aby nie prześwietlić zdjęcia musimy dobrać odpowiednio krótki czas naświetlania. Jeżeli chcemy aby cały kadr był ostry wtedy przymykamy przysłonę ustawiając na wysoką wartość. W takiej sytuacji w związku z małą ilością wpuszczonego światła musimy pamiętać aby ustawić odpowiednio długi czas naświetlania, który niekiedy może wymusić użycie samowyzwalacza i statywu.

Znalezione obrazy dla zapytania Przysłona, głębia ostrości
Zdjęcie przedstawia poglądowo zależność głębi ostrości od przysłony.

Czas naświetlania

Czas naświetlania, inaczej czas otwarcia migawki to czas przez który elektroniczny element światłoczuły (czyli matryca) jest naświetlany, czyli rejestruje obraz. Naszą rolą, lub rolą trybu auto jest dobranie takich parametrów, m.in. czasu naświetlania aby zarejestrowany obraz odpowiadał rzeczywistości. 


Oczywiście wpływ ma tutaj też dobrana przysłona. Im dłuższy czas naświetlania tym więcej dotrze światła na matrycę, im krótszy tym mniej.  

Ustawiając krótki czas naświetlania zyskamy efekt zamrożenia ruchu, dłuższy zaś zarejestrujemy ruch.

Dłuższe czasy naświetlania ze względu na drgania ręki wymagają użycia statywu. Na przykład przy ogniskowej 200mm może być nam trudno wykonać zdjęcie z dłuższym czasem naświetlania niż 1/125 sekundy.


Czas otwarcia migawki a czas reakcji migawki

Czas otwarcia migawki bywa mylony z czasem reakcji migawki. Pamiętajmy, są to dwa zupełnie różne pojęcia. Czas otwarcia migawki (czas naświetlania) jest to czas przez który aparat rejestruje obraz. Czas reakcji migawki jest to czas który upłynął od momentu wciśnięcia przez fotografa przycisku spustu migawki do momentu otwarcia migawki. Inaczej mówiąc czas, w którym aparat zacznie wykonywać nasze polecenie.

Jak powstaje zdjęcie w aparacie cyfrowym?

Jak już wiemy aparat cyfrowy rejestruje obraz na elemencie światłoczułym, czyli matrycy podzielonej na małe części zwane pikselami. Każdy z tych pikseli odczytuje z zewnątrz natężenie światła. Im dłuższy czas naświetlania tym piksel zarejestruje więcej tego światła. Im przyjmie go więcej tym zapisany obraz będzie jaśniejszy. 


A jak powstają kolory?

Sam piksel rejestruje tylko natężenie światła. Dlatego aby zarejestrować kolor, piksele są pokryte filtrem zbudowanym z trzech głównych barw – czerwonej, zielonej i niebieskiej. Mówimy tutaj o tak zwanej przestrzeni barw RGB (red, green, blue). Światło zanim dotrze na matrycę, a dokładniej na konkretny piksel przechodzi przez filtr o jednym z trzech kolorów.

Filtr kolorowy Bayera

Jest to siatka złożona z trzech kolorów – czerwonego, niebieskiego i zielonego, które rozłożone są w taki sposób aby imitować właściwości ludzkiego oka (czyli elementów zielonych jest dwukrotnie więcej niż czerwonych i niebieskich).



Tworzenie koloru

W matrycach takich jak CCD i CMOS wykorzystujących filtr Bayera konkretny piksel rejestruje tylko jeden kolor światła – ten którym jest przykryty przez filtr. Lecz ostateczna jego barwa odczytywana przez procesor aparatu jest wynikową średniej barw zarejestrowanych z tego piksela i ośmiu sąsiednich (rysunek poniżej). Inaczej jest w matrycach typu Foveon X3, gdzie nad każdym pikselem są trzy filtry – czerwony, zielony i niebieski, więc kolor rejestrowany przez piksel jest już kolorem wynikowym z trzech głównych barw.

Piksele efektywne i nieefektywne

Na rysunku poniżej widzimy w czarnej ramce piksele z których została określona barwa wynikowa dla piksela A, a w białej ramce dla piksela B. Szarą ramką oznaczone są sąsiednie piksele dla piksela D. Jak widać jest ich tylko pięć, ponieważ jest to piksel brzegowy matrycy. W związku z tym nie jest dla niego określana brawa wynikowa. Jest on tak zwanym pikselem nieefektywnym. Piksele dla których jest określana taka barwa są pikselami efektywnymi, czyli biorącymi udział w zapisywaniu obrazu.

Na koniec, gdy już zostaną wyliczone i przypisane kolory ze wszystkich pikseli wystarczy tylko odpowiednio oddalić to dzieło i można się cieszyć zarejestrowanym obrazem.

ISO, czyli czułość matrycy na światło

Pojęcie ISO może się różnorako kojarzyć, bo z formatem zapisu danych optycznych, z International Organization for Standardization (Międzynarodowa Organizacja Standaryzacyjna) oraz normami jakości określanymi przez tą organizację. Nam chodzi jednak o czułość filmu fotograficznego i matrycy światłoczułej.


Niegdyś kupowaliśmy klisze o różnej czułości 100, 200, 400. Dobieraliśmy ją stosownie do warunków w jakich będziemy fotografować. Gdy przy świetle dziennym zazwyczaj była to 100-ka, to w ciemnościach mogła to być 800-ka. 

Dziś, kiedy to zamiast na kliszy aparat rejestruje zdjęcie na matrycy światłoczułej możemy dla każdego zdjęcia ustawić oddzielnie czułość ISO.

Co nam daje ISO?

Czułość jest to stopień w jakim matryca aparatu reaguje na światło. Kiedy mamy dużo światła zastanego ustawiamy niską czułość, zazwyczaj 100, bo w innym przypadku zdjęcie może być zbyt jasne i niepotrzebnie zaszumione. Im ciemniej, tym większych czułości możemy użyć. Jednak pamiętajmy że każde zwiększenie ISO wiąże się z negatywnym zjawiskiem, tak zwanym zaszumieniem.

Szumy w fotografii cyfrowej

Powstają w wyniku zwiększenia ISO. Jest to widoczna ziarnistość i mniejsza ilość szczegółów. Ziarnistość w zależności aparatów może być zauważalna już przy ISO 400 (aparaty kompaktowe), ale i niekiedy dopiero przy ISO 1600 (lustrzanki i bezlusterkowce z dużą fizycznie matrycą).
Pomiar światła wykonywany jest przez światłomierz, kiedyś zewnętrzny, dziś wbudowany w aparat fotograficzny. Celem tego pomiaru jest ustawienie odpowiednich parametrów ekspozycji – przysłony, czasu naświetlania i czułości.


Bez pomiaru światła aparat nie byłby w stanie tego zrobić. Pomiar dokonywany jest nawet wówczas, gdy wszystkie parametry ustawiamy manualnie (sami) po to aby ułatwić nam zadanie poprzez wskaźnik światłomierza, zwany potocznie drabinką. Istnieją trzy podstawowe metody pomiaru światła – punktowy, centralnie ważony i matrycowy.

Pomiar matrycowy

Występuje chyba we wszystkich obecnie produkowanych aparatach, zwany jest też wielosegmentowym, wielopolowym, wielopunktowym lub ewaluacyjnym. Światłomierz mierzy jasność w wielu punktach, porównuje rozkład jasności z wbudowaną bazą danych i oblicza ekspozycję za pomocą skomplikowanych algorytmów, różnych u rożnych producentów. Ten tryb jest prosty i często używany przez amatorów ( jako ustawiony domyślnie też nieświadomie) Daje on fotografowi najmniejszą kontrolę nad zdjęciem poprzez swoją nieprzewidywalność.

Centralnie ważony (centralny, uśredniony)

Światło mierzone jest w centrum kadru lub w całości kadru z przypisaniem większego znaczenia centralnej części. Wynik tego pomiaru jest uśredniany dla całości kadru. Przydatny przy fotografii obiektów zajmujących dużą część kadru. Nie polecany gdy fotografowana gdy scena jest podzielona niesymetrycznie jeżeli chodzi o oświetlenie.

Pomiar punktowy

Światło jest mierzone w jednym punkcie, zazwyczaj centralnym zajmującym od 1 do 3,5 % kadru. Dzięki temu określamy precyzyjnie natężenie światła w najbardziej interesującym nas punkcie. Silne kontrasty i źródła światła nie działają tu tak destrukcyjnie jak przy pozostałych metodach. Minusem jest to że pomiar ten nie bierze pod uwagę tego co dzieje się pozostałej części kadru, którą z tego względu łatwo prześwietlić lub niedoświetlić. Stosowanie tego trybu wymaga dużej wprawy, gdyż niewłaściwy wybór punktu pomiaru powoduje duże przekłamania.

Reasumując, przed wykonaniem każdego zdjęcia aparat musi odczytać informacje z zewnątrz poprzez pomiar światła. Pomiar może być wykonany na różne sposoby:
  • w ścisłym centrum kadru (punktowy)
  • w określonym obszarze bliżej centrum (centralnie ważony) a jego wynik uśredniany dla całości
  • w wielu punktach jednocześnie (matrycowy) a jego wynik porównywany do wbudowanego wzorca aby na tej podstawie aparat mógł wyliczyć parametry ekspozycji.

Balans bieli

Jest to proces kompensacji barw obrazu zarejestrowanego przez matrycę dla temperatury barwowej oświetlenia, jakie towarzyszyło wykonaniu fotografii.


Pojęcie balansu bieli jest trudne do zrozumienia z tego powodu, że człowiek, a właściwie jego oko we współpracy z mózgiem odbiera zawsze kolor biały jako biały, czerwony jako czerwony etc. – niezależnie od oświetlania (jego temperatury barwowej). Aparat fotograficzny nie ma takiej właściwości, więc trzeba mu każdorazowo wskazać co jest białe przy danym świetle, a on automatycznie rozpozna wszystkie pozostałe kolory. 

Ustawienie balansu bieli sprowadza się zatem do wskazania aparatowi co jest w danym momencie (przy danym świetle) białe. Na rysunku poniżej widzimy jaką temperaturę barwowa ma dany rodzaj światła i jak w związku z tym aparat widzi biel bez korekty balansu bieli – np. przy świetle żarówki jest to żółte zabarwienie.

Najpopularniejsze tryby ustawiania balansu bieli w aparatach cyfrowych to:
  •  automatyczny, oznaczany jako AWB
  •  światło żarowe (dla temperatury barwowej 3500 K),
  •  światło jarzeniowe (od 2700 K do 7200 K, białe 3700 K)
  •  światło słoneczne (5200 K),
  •  lampa błyskowa (5400 K),
  •  pochmurno (6000 K),
  •  cień (8000 K),
  •  wybór temperatury barwowej w kelwinach,
  •  według wzorca (manualnie).
Automatyczny Balans Bieli polega na tym, że aparat znajduje najjaśniejszy punkt w kadrze  uznaje go jako biały i względem niego odczytuje pozostałe kolory.

Pobieranie balansu bieli ze wzorca (manualny balans bieli) jest najdokładniejszym sposobem „pokazania aparatowi” co jest białe. Pomiaru dokonujemy zazwyczaj przy pomocy specjalnej szarej karty odbijającej 18% światła. W większości zaawansowanych aparatów aby pobrać manualnie balans bieli wypełniamy kadr ową szarą kartą i wciskamy spust migawki. Zamiast szarej karty możemy użyć na przykład czystej białej powierzchni.

Warto zwrócić uwagę, że surowe pliki RAW nie maja zapisanego balansu bieli, którego ustawienie następuje na etapie obróbki danych zarejestrowanych na matrycy.

Focus czyli ustawianie ostrości

Jak wspomniałem wcześniej, zakres głębi ostrości w którym możemy manipulować zależny jest od wielkości fizycznej matrycy i dobranej przysłony. Natomiast o tym w którym punkcie będzie ustawiona ostrość (centrum ostrości) decyduje system automatycznego ustawiania ostrości czyli autofocus (AF) lub fotograf wybierając manualnie punkty ostrości, na przykład w trybie manual focus (MF).

Znalezione obrazy dla zapytania Focus czyli ustawianie ostrości 


Aparat może ustawiać ostrość na jeden ze sposobów opisany poniżej:

Detekcja fazy (AF) – polega na wykryciu dwóch promieni światła przez sensor, obliczeniu odległości między nimi i na podstawie tego dokonaniu korekty ostrości w obiektywie.

Detekcja kontrastu (AF) – system AF pracuje cały czas w trakcie nastawiania ostrości wykrywając kontrast i dążąc do momentu kiedy będzie on maksymalny. W poszukiwaniu tego optymalnego kontrastu przechodzi dalej aż do momentu kiedy kontrast zacznie spadać i w tym momencie cofa się do optymalnego.

Hybrydowy AF – ostatnimi czasy coraz częściej w specyfikacjach aparatów znajdujemy informacje o hybrydowym systemie autofocusa który łączy wykrywanie fazy i wykrywanie kontrastu (po kilka/kilkanaście punktów).

Manualny Focus (MF) – ostrość ustawiamy przy pomocy pierścienia na obiektywie, wybierając punkt przyciskiem na panelu, na ekranie dotykowym lub w jeszcze inny sposób udostępniony przez producenta danego aparatu.

Autofocus może nam ustawiać ostrość w jednym punkcie lub równocześnie w kilku, AF możemy podzielić na pojedynczy i ciągły, czyli taki w którym możemy śledzić ustawienie ostrości na bieżąco bez konieczności wciskania przycisku spustu migawki do połowy.
Za jednostkę odniesienia (czyli EV 0) uznajemy ekspozycje w której naświetlamy materiał światłoczuły (matryca aparatu) przez obiektyw o otworze względnym 1:1 przez jedną sekundę. Zmianę ekspozycji o 1 EV stanowi dwukrotna zmiana czasu otwarcia migawki lub zmiana dwukrotna wartości przysłony (czyli o jeden stopień). Na przykład zmiana czasu z 1/500s na 1/125s lub zmiana przysłony f /8 na f/11


Kiedy korygujemy ekspozycję?

Współczesne aparaty posiadają wbudowany światłomierz, w wyniku pracy którego aparat oblicza poprawne parametry ekspozycji. Jednak gdy pracujemy na ustawieniach manualnych aparat służy nam pomocą w postaci wyświetlania tzw. drabinki, która sugeruje nam zmianę ekspozycji (zazwyczaj w krokach o 0,3 EV). Aparat może zasygnalizować nam również brak możliwości ustawienia wystarczających parametrów w zastanych warunkach oświetleniowych na przykład poprzez zmianę koloru wskaźnika drabinki z zielonego na czerwony.

Blokada ekspozycji

Większość współczesnych cyfrowych aparatów fotograficznych zostało wyposażane w możliwość blokady ekspozycji. Zazwyczaj jest to dedykowany przycisk (np. AE, AEL) lub funkcje taką można przypisać pod konkretny przycisk o ile oprogramowanie aparatu daje takie możliwości.

Jak korzystać z blokady ekspozycji?

Z funkcji blokady ekspozycji korzystamy gdy pomiar światła jest niemiarodajny w stosunku do kadru. Załóżmy , ze mamy ustawiony pomiar punktowy lecz w centrum kadru gdzie ten pomiar jest wykonywany jest czarny obiekt, natomiast w pozostałej części kadru (nie objętej w tym przypadku pomiarem) jest zupełnie jasno. Po takim pomiarze aparat „zobaczy” że jest ciemno, mimo że to nie prawda. Chcąc temu zapobiec możemy skierować aparat na przykład do góry, na niebo, wcisnąć spust migawki do połowy i następnie wcisnąć przycisk blokady ekspozycji. Wówczas aparat zapamiętuje parametry ekspozycji (przysłonę, czas naświetlania, ISO) i balans bieli, które wykorzystujemy do ujęcia właściwego kadru.

Niektóre aparaty mają również opcję blokady AF, działającą na analogicznej zasadzie do blokady AE.
Z biegiem czasu pojawia się coraz więcej opinii o rzekomym końcu aparatów kompaktowych, szczególnie tych tanich, z podstawowymi funkcjonalnościami. Głównym powodem ma być rozwój smartfonów, które wyposażane są w coraz to lepsze aparaty. Czy aparaty wbudowane w smartfony rzeczywiście są w stanie zagrozić aparatom kompaktowym?

 

Jeśli weźmiemy pod uwagę samą jakość zdjęć i możliwości użytkowe, to jeszcze jakiś czas temu stworzenie dobrego aparatu w smartfonie wydawało to się być rzeczą bardzo trudną. Kolejne modele smartfonów oczarowywały nas coraz to większa ilością pikseli oraz większymi możliwościami w zakresie doboru parametrów. Niewątpliwe takie udoskonalenia zbliżają te urządzania do aparatów. Jednakże ze względu na konstrukcję smartfonów bardzo trudnym zadaniem jest wyposażenie aparatów w nich wbudowanych w zoom optyczny. 

Niemożliwe wydaje się być, przy zachowaniu grubości charakterystycznej dla smartfonu, umieszczenie w nim większej fizycznie matrycy na której zapisywane jest zdjęcie, a wielkość ta jest niezwykle istotna dla jakości zdjęć. Mimo tego, że niektóre rzeczy są bardzo trudne do osiągnięcia, niepodważalny jest fakt, że smartfony zbliżają się jakością wbudowanych aparatów do tanich kompaktów. Rożne problemy, szczególnie związanie z miniaturyzacją, producenci próbują rozwiązać na rozmaite sposoby. Powstają konstrukcje hybrydowe, jak smartfon z wysuwanym obiektywem lub bezkorpusowiec, czyli aparat (matryca+obiektyw) mocowany do samartfonu (łączący się bezprzewodowo), który to z kolei stanowi dla niego element sterujący.

Nawet jeśli smartfony nie dorównają jakością zdjęć aparatom kompaktowym, to jednak wygoda ich użytkowania stanowi ogromny argument dla użytkownika. Jest przecież mały, a na dodatek mamy jedno urządzenie zamiast dwóch… Jakość zdjęć, jeśli będzie gorsza, to w większości sytuacji na tyle, że przeciętny użytkownik tego nie dostrzeże. Jeśli ktoś będzie chciał zabawić się w fotografa, kupi lustrzankę lub bezlusterkowsca. Również niezagrożone wydają się być konstrukcje przejściowe, jak kompakty z większa fizycznie matrycą czy dobrym jasnym obiektywem oraz aparaty z dużym zbliżeniem optycznym, nieosiągalnych dla smartfonów. Wydaje się, że jedynie tanie kompakty nie mają na tyle przymiotów aby skutecznie oprzeć się „naporowi” smartfomów.
Techniki fotografowania (fotograficzne) to pojęcie, na które napotykamy coraz częściej zarówno w literaturze fachowej, rozmaitych poradnikach, jak i w slangu fotografów. Techniki fotografowania jest to opis czynności, które wykonujemy dla uzyskania konkretnego efektu na fotografii. 


Techniki te możemy podzielić na standardowe (opisane), jak i niestandardowe (charakterystyczne dla danego fotografa, wypracowane przez niego). Pojęcie techniki fotografowania bywa zazwyczaj naprzemiennie stosowane z pojęciem zasady fotografowania. Niewątpliwie jednak jest ono pojęciem szerszym. Zazwyczaj w ramach danej techniki fotografowania możemy wykorzystać kilka zasad. W związku z tym, że temat technik i zasad/metod fotografowania wykracza poza zakres tematyczny tego bloga, a i ja nie jestem specjalistą w tej dziedzinie, tylko wymienię kilka z nich: panoramowanie, fotografia portretowa, makrofotografia, zasad trójpodziału, zasada trójkąta.

Przykładowo zasada trójpodziału zakłada polega na podziale kadru na dziewięć części poprzez dwie linie poziome i dwie linie pionowe. Punkty na przecięciach linii stanowią mocne punkty kadru w których staramy się uchwycić istotne, interesujące nas elementy.

Panoramowanie jest techniką polegająca na ujęciu poruszającego się obiektu jako „ostrego” na zdjęciu, względem obiektu statecznego, który na zdjęciu ma być rozmyty (ze względu na ruch aparatem podążający za ruchomym obiektem)