3. Omów metodę pomiaru światła w kamerze wideo i metodę oceny jasności obrazu wideo.
Kilka słów o fotografii
Celem tego tekstu jest wprowadzenie w świat fotografii początkujących fotoamatorów. Jeśli zaczynacie dopiero swoją przygodę z utrwalaniem obrazu, jeśli ciekawią Was wszystkie tajemnicze przełączniki, cyferki znajdujące się na aparacie – to dobrze trafiliście. Proszę jednak, byście potraktowali ten tekst jedynie jako wstęp do dalszej nauki, zdobywania nowych umiejętności i wiedzy. Zastrzegę też na początku, że wszystkie wyrażone w tekście opinie są indywidualnymi opiniami autora. Zacznijmy od pytania podstawowego – czym jest fotografia? Nieoceniona Wikipedia podaje nam natychmiast następującą definicję: Fotografia (z gr. photos – światło, graphein – rysować, pisać – rysowanie za pomocą światła) – zbiór wielu różnych technik, których celem jest zarejestrowanie trwałego, pojedynczego obrazu za pomocą światła. Potoczne znaczenie zakłada wykorzystanie układu optycznego, choć nie jest to konieczne (fotografia otworkowa, rayografia). Co z tego zrozumie początkujący fotograf? Raczej niewiele. I to jest wada prób ścisłego określenia, zdefiniowania tego niezwykle obszernego zjawiska. Spróbujmy więc odwołać się do pojmowania indywidualnego. Spróbujmy sobie odpowiedzieć na pytanie: czym jest fotografia dla nas? Najpierw cel, bo to chyba najważniejszy aspekt. Celem fotografii jest dla mnie próba pokazania świata w sposób, w jaki go odbieramy. To chęć ujęcia w zamkniętym kadrze chwili, wrażenia, sytuacji, widoku, kompozycji, ujęcia tego wszystkiego w sposób, który przedstawia punkt widzenia fotografa. Nie jest celem nadrzędnym fotografii obiektywne utrwalanie chwili, dokumentacja świata otaczającego. Zdjęcia robią różni ludzie i właśnie patrzenie na utrwalony w kadrze świat ich oczami wydaje mi się w fotografii najbardziej fascynujące. Następna sprawa to technika. Przez wiele lat fotografia opierała się na związkach chemicznych reagujących w określony sposób na światło. Kryształki tych związków, umieszczone w żelatynowej zalewie, pokrywają celuloidową błonę. Wystawione na działanie światła, przechodzą przemiany chemiczne, zmieniają się ich właściwości. W procesie wywoływania i utrwalania błonę fotograficzną umieszcza się w specjalnych kąpielach. Kolejne reakcje chemiczne doprowadzają do powstania na celuloidzie trwałego obrazu. W fotografii negatywowej obraz ten jest odwrotnością obrazu fotografowanego – co w naturze jest jasne, na błonie jest ciemne i na odwrót. W fotografii pozytywowej zaś kolory uzyskane na kliszy odpowiadają kolorom rzeczywistym. To umożliwia wytwarzanie papierowych odbitek z negatywów bądź wyświetlanie obrazu na ekranie w przypadku pozytywów, jak fachowo określa się slajdy. Rozwój elektroniki umożliwił zmianę sposobu rejestracji obrazu. Najmodniejsza i najszybciej rozwijająca się dziś odmiana fotografii to fotografia cyfrowa. Umożliwia pominięcie etapu żmudnej obróbki chemicznej. W fotografii cyfrowej, elektronicznej za utrwalanie obrazu odpowiedzialna jest matryca. To krzemowa płytka, skonstruowana tak, by jej mikroskopijne komórki reagowały na padające światło, wytwarzając ładunki elektryczne. Układy scalone aparatu fotograficznego zbierają sygnały z matrycy i przetwarzają na końcowy obraz, który w postaci plików zapisywany jest na nośnikach pamięci. Tak otrzymane obrazy możemy oglądać na ekranach komputerów bądź wydrukować, by otrzymać papierowe odbitki. I w ten sposób doszliśmy do zagadnienia trzeciego, czyli sprzętu. Dla wielu ludzi sprzęt jest w fotografii najważniejszy. Licytują się pikselami, parametrami, słownictwem fachowym. Ja wolę jednak sprzęt stawiać dopiero na trzecim miejscu. W końcu to jedynie narzędzie. A zdjęcia robi nie aparat, lecz człowiek. Aparat fotograficzny składa się z dwóch zasadniczych części. Z obiektywu – czyli układu optycznego odpowiedzialnego za przekazywanie światła ze świata zewnętrznego do wnętrza aparatu, oraz z korpusu – czyli światłoszczelnej puszki, w której zamknięty jest element światłoczuły i która steruje całym procesem naświetlania. W aparatach prostych, kompaktach, niektórych lustrzankach korpus jest na stałe połączony z obiektywem. Jest to pewne ograniczenie, jednak we współczesnych aparatach montowane są dobrej jakości obiektywy o zmiennej ogniskowej, o tak dobranych parametrach, by zadowolić użytkowników. W bardziej zaawansowanej fotografii stosuje się zazwyczaj aparaty o wymiennej optyce. Dzięki temu fotograf otrzymuje bardziej uniwersalne i elastyczne narzędzie. Wymiana obiektywu zajmuje kilka sekund, a możliwości, jakie dzięki temu otwierają się przed fotografującym, są olbrzymie. Który element jest ważniejszy? Dla doświadczonego fotografa – obiektyw, dla początkującego – korpus. Współczesne korpusy wykonują za człowieka mnóstwo pracy. Mierzą światło, dostosowują automatycznie do niego parametry zdjęcia, potrafią same włączyć lampę błyskową, kiedy jest to niezbędne, itd. Umożliwiają laikowi robienie poprawnych technicznie zdjęć. I chwała im za to! Kiedy jednak przejdziemy już przez kilka etapów fotograficznego wtajemniczenia, zaczynamy zwracać uwagę na drugi element zestawu. Na obiektyw. Kiedy wiemy już sami, jakie parametry na aparacie ustawić, by otrzymać upragnione efekty, kiedy świadomie rezygnujemy z pełnej automatyki na rzecz systemów półautomatycznych (czy w pełni manualnych), zaczynamy dostrzegać, że ograniczają nas niedostatki układu optycznego. Bowiem obiektyw obiektywowi nierówny. Jak to już na świecie bywa, są obiektywy tanie i są obiektywy drogie. Te pierwsze to zazwyczaj konstrukcje o niskich parametrach, a te drugie to zazwyczaj sprzęt wysokiej jakości. Ale nie zawsze cena jest dobrym wyznacznikiem jakości obiektywu. Omówiliśmy już krótko cel, techniki i sprzęt potrzebny do fotografowania. Pozostaje nam przejść do omówienia podstawowych zjawisk i pojęć opisujących ważne w fotografii zjawiska. Na czym polega sam proces wykonania zdjęcia? Fizycznie to naciśnięcie spustu migawki. Co jednak dzieje się w aparacie, kiedy to uczynimy? Patrząc przez wizjer w aparacie, widzimy to, co widzi nasz obiektyw. W tym czasie jednak element światłoczuły pozostaje zasłonięty. Kiedy naciskamy spust, na chwilę otwiera się migawka – zasłona między obiektywem a kliszą czy matrycą. Światło pada na element światłoczuły i powstaje obraz. Prawda, że proste? Myślę więc, że możemy przejść do wyjaśniania podstawowych pojęć i zjawisk, jakie napotkamy podczas fotografowania. Ogniskowa – to po prostu odległość między środkiem układu optycznego a jego ogniskiem. Każdy, kto w dzieciństwie bawił się soczewkami, próbując za ich pomocą podpalić czy ogrzać cokolwiek, pamięta, że soczewka skupia światło w jednym miejscu. I właśnie odległość tego punktu od soczewki wyrażoną w milimetrach nazywamy ogniskową. Co zaś ogniskowa oznacza w fotografii? Pozwala nam poznać „kąt widzenia” każdego obiektywu, gdyż im większa jest wartość ogniskowej, tym mniej widzimy, tym bardziej ograniczone jest pole widzenia. I tak obiektywy pod względem wartości ogniskowych można podzielić na: – Obiektywy szerokokątne, o niskich ogniskowych – tj. do ok. 35 mm, umożliwiają nam fotografowanie dużych przestrzeni. Ich strefa widzenia może być nawet większa niż to, co widzimy swoimi oczami. – Obiektywy standardowe – tj. o ogniskowych w zakresie ok. 40-70 mm, odwzorowują obraz w sposób zbliżony do naszego postrzegania. Jako ciekawostkę można podać ogólne założenie, że obiektyw najlepiej oddający ludzkie widzenie świata powinien mieć ogniskową zbliżoną do 43 mm. – Obiektywy portretowe – tj. o ogniskowych w zakresie ok. 80-135 mm. Są to obiektywy zawężające pole obserwacji, pozwalające wyeksponować obiekty na pierwszym planie. Stąd też ich nazwa i główne przeznaczenie – to wymarzone obiektywy do fotografii portretowej. – Teleobiektywy – tj. o ogniskowej powyżej 135 mm. Znacząco ograniczają pole widzenia. Z drugiej strony bardzo „przybliżają” fotografowane obiekty. Stąd ich szerokie zastosowanie – od fotografii przyrodniczej, przez sportową do szpiegowskiej. Jak zmiana ogniskowej wpływa na otrzymany obraz, możecie zaobserwować na zdjęciach poniżej. Wszystkie zostały wykonane z tego samego miejsca, tym samym aparatem. Zmieniałem tylko obiektywy. Zwróćcie uwagę na uzyskane przybliżenie na ostatnim zdjęciu i pomyślcie, co można by sfotografować obiektywem o ogniskowej 2000 mm. Pod względem konstrukcji obiektywy podzielić też możemy na dwie grupy: stało- i zmiennoogniskowe. Te pierwsze mają ściśle określoną wartość ogniskowej, drugie zaś, zwane popularnie zoomami, umożliwiają zmianę wartości ogniskowej w pewnym zakresie. I tak tajemnicze napisy na obiektywach możemy rozszyfrować w następujący sposób: – SMC PENTAX-M 1:1,7 50 mm – obiektyw firmy Pentax, pochodzący z serii M, o stałej ogniskowej 50 mm i jasności 1:1,7. – SIGMA 70-300 mm 1:4-5,6 DL – obiektyw zmiennoogniskowy (zoom), wyprodukowany przez firmę Sigma, pochodzący z serii DL, o ogniskowej zmiennej w zakresie od 70 do 300 mm i zmiennej jasności od 4 (dla ogniskowej 70 mm) do 5,6 (dla ogniskowej 300 mm). I w ten sposób doszliśmy do następnego ważnego punktu. W opisach obiektywów pojawiło się bowiem określenie jasność. Możemy ten termin zdefiniować jako miarę ilości światła przepuszczanego przez obiektyw do wnętrza obiektywu. Im liczba opisująca jasność obiektywu bardziej zbliżona jest do jedności, tym więcej światła obiektyw przepuszcza na element światłoczuły. W oznaczeniach na obiektywach przyjęto metodę oznaczania przysłony wartościami odpowiadającymi przybliżeniom kolejnych potęg ?2: 1,0; 1,4; 2,0; 2,8; 4,0; 5,6; 8,0; 11,.0; 16,0; 22,0; itd. Przy wartości 1,0 uznaje się, że całe światło padające na soczewkę obiektywu przechodzi do wnętrza aparatu, a każda następna pozycja oznacza ustawienie przysłony, przy którym do wnętrza obiektywu przepuszczana jest dwa razy mniejsza ilość światła. Konstrukcyjnie ograniczanie światła padającego na element światłoczuły realizuje się przez zastosowanie we wnętrzu obiektywu mechanicznej przegrody. To właśnie przysłona, składający się z kilku bądź kilkunastu ruchomych listków mechanizm, którym możemy sterować, zmniejszając lub powiększając otwór wewnątrz obiektywu. Na poniższym zdjęciu możecie zobaczyć obiektyw (po lewej) z całkowicie otwartą przysłoną i (po prawej) z przysłoną przymkniętą.
Zjawiskiem, którym możemy sterować zmieniając przysłonę, jest głębia ostrości. Najprościej ujmując, jest to obszar na zdjęciu, w którym umieszczone przedmioty są ostre. Tu posłużyć się najlepiej przykładami. Poniżej znajdziecie cztery zdjęcia tego samego motywu sfotografowane z użyciem różnych ustawień przysłony. Przypatrzcie się im dokładniej.
Na pierwszym zdjęciu ostry, wyraźny jest tylko środkowy aniołek oraz kotek. Przy wykonaniu tego zdjęcia przysłonę obiektywu otworzyłem maksymalnie, do pozycji 3,5. Na dwóch następnych, przy przesłonach o wartości 8 i 16, zauważamy rozszerzanie się strefy, w której umieszczone obiekty stają się wyraźne, zaś na ostatnim, przy przysłonie przymkniętej maksymalnie, do wartości 32, praktycznie wszystkie aniołki znajdujące się w kadrze uzyskały ostrość. Głębią ostrości (GO) nazywamy właśnie obszar na zdjęciu, w którym obiekty są ostre. Otwieranie przysłony wpływa na zmniejszanie, zaś przymykanie na zwiększenie GO. Ciekawostką może być zjawisko, które powoduje, że jeśli ustawimy ostrość w kadrze na wybranym punkcie, to przestrzeń z wyraźnymi obiektami będzie dwa razy większa za fotografowanym obiektem niż przed nim. Skąd się bierze głębia ostrości? Jest to normalna cecha każdego układu optycznego. Kiedy skoncentrujemy wzrok (nasze oczy też są układem optycznym) na obiekcie znajdującym się gdzieś daleko, nie będziemy widzieć wyraźnie obiektów nam bliskich. I na odwrót, skupiając wzrok na czymś blisko, stracimy ostrość widzenia na dalszym planie. Dzięki sterowaniu GO możemy uzyskać na naszych zdjęciach efekty zbliżone do normalnego postrzegania albo wprost przeciwnie, uzyskać obraz, jakiego oczami ludzkimi nie jesteśmy w stanie zarejestrować. Głębia ostrości ma też związek z ogniskową obiektywu. Im krótsza ogniskowa, tym obiektywy mają większą GO przy maksymalnie otwartej przysłonie. Dlatego też w prostych automatycznych aparatach fotograficznych stosuje się obiektywy o ogniskowej ok. 25 mm. Dzięki temu nie trzeba sterować ustawianiem ostrości, gdyż przy takiej wartości ogniskowej praktycznie wszystkie obiekty znajdujące się w polu widzenia obiektywów pozostają wyraźne. Następnym parametrem wpływającym na otrzymane zdjęcie jest czas naświetlania. Kiedy naciskamy spust migawki, otwiera się na określony czas zasłona między kliszą lub matrycą a obiektywem. Czasy otwarcia migawki mogą być różne. Zazwyczaj zawierają się w zakresie od 1/4000 s do kilku, a nawet kilkunastu minut. Dlaczego występuje aż takie zróżnicowanie? Odpowiedź jest prosta. Światło padające na element światłoczuły musi dostać się tam w ściśle określonej ilości, tak, by spowodować określony efekt. Co się dzieje, kiedy światła jest za dużo, w sam raz i za mało, możecie zobaczyć na tym zdjęciu.
Ten sam element fotografowałem z bardzo różnymi czasami przy tych samych ustawieniach przysłony. Przez to dzwoneczek raz został prześwietlony, raz naświetlony poprawnie i raz zdecydowanie niedoświetlony. Skoro więc na element światłoczuły ma padać ściśle określona ilość światła, to musimy tym sterować. Jak już wiemy, można ograniczać ilość światła przechodzącą przez obiektyw przysłoną, jej otwieraniem bądź zamykaniem, ale to może nam nie wystarczyć. Dlatego sterujemy też czasem naświetlania. Kiedy światła jest dużo – w jasny, słoneczny dzień – migawkę otwierać można na ułamek sekundy. Kiedy wejdziemy do ciemnego pomieszczenia bądź fotografujemy coś w nocy, niezbędne będzie otwarcie migawki na czasy długie, sięgające czasami kilku minut. Jaki jednak wpływ na otrzymywane zdjęcia ma czas naświetlania? Tu znów odwołamy się do ludzkiego oka. Ocenia się, że widzimy świat tak, jak na zdjęciach naświetlanych przez 1/50 s. Dlatego też zdjęcia robione przy takim czasie wydają nam się najbardziej naturalne. Płynąca woda sfotografowana przy czasie otwarcia migawki 1/50 s będzie na zdjęciu wyglądać tak jak w normalnym postrzeganiu. Jednak na zdjęciach często chcemy uzyskać efekt, którego nasze oko nie zarejestruje. Efekt rozmycia czy zamrożenia ruchu. Posłużmy się przykładem 3 zdjęć umieszczonych poniżej. Przedstawiają one dym wydobywający się ze świecy dymnej. Na pierwszym zdjęciu, zrobionym przy neutralnym czasie 1/50 s, widzimy zwykły dym. Tak właśnie postrzega go nasze oko. Drugie zdjęcie zostało zrobione przy czasie 1/5 s. Dym się nam rozmazał, widzimy smugi, pojawia się wrażenie ruchu, zostaje wprowadzona pewna dynamika. Trzecie zdjęcie zostało zaś zrobione przy czasie 1/500 s. Krótki czas umożliwił nam zamrożenie ruchu. Nie ma smug, kłęby dymu są jakby zatrzymane w biegu. Widać dokładnie każdą strużkę, każde zawirowanie. Przemyślane i celowe zastosowanie różnych czasów naświetlania umożliwia więc uzyskanie bardzo ciekawych efektów. Fotografując płynący strumyk czy wodospad, możemy wodę ukazać w postaci smug, potęgując wrażenie ruchu, bądź zamrozić jej ruch, koncentrując się na ciekawych zawirowaniach czy kroplach. A wszystko to osiągniemy, zmieniając tylko czas wystawienia elementu światłoczułego na działanie światła. Teraz należy powiązać ze sobą czas naświetlania i ogniskową. Zazwyczaj celem fotografa jest uzyskanie ostrego, nieporuszonego zdjęcia. Nie jest to trudne nawet w kiepskich warunkach oświetleniowych, kiedy mamy obiektyw o niewielkiej ogniskowej. Fotografując trzymanym w ręku aparatem, nie jesteśmy w stanie wyeliminować niezauważalnych dla nas mikrodrgań. Wpływają one niestety na rejestrowany obraz. Na zdjęciu poniżej widzicie: po lewej dzwoneczek sfotografowany prawidłowo, zaś po prawej zdjęcie poruszone. To jednak nie dzwoneczek się ruszał, lecz aparat podczas robienia zdjęcia. Zjawisko to staje się ważnym problemem w momencie, kiedy fotografujemy obiekty od nas oddalone, przy użyciu obiektywu o dużej ogniskowej. Wówczas nawet minimalny ruch ręki, minimalne przesunięcie obiektywu spowoduje zauważalne rozmycie, poruszenie fotografowanych obiektów. Rozwiązaniem w tej sytuacji jest użycie statywu. Pozwoli nam na dokładne ustawienie aparatu i wykonanie nieporuszonego zdjęcia, nawet przy długim czasie naświetlania. Co jednak w przypadku, kiedy nie mamy pod ręka takiego urządzenia? Wówczas dobrze jest pamiętać o pewnej zasadzie – by fotografować z czasami naświetlania będącymi odwrotnością stosowanej aktualnie ogniskowej lub jeszcze krótszymi. Przykładowo – stosując teleobiektyw 200 mm, powinniśmy użyć czasu 1/200 s lub jeszcze krótszego. Wówczas jesteśmy w stanie zminimalizować skutki drgań aparatu. Skoro wiemy już, jak sterować naświetleniem, głębią ostrości i jak wybrać ogniskową, pozostaje nam jeszcze jeden tajemniczy parametr. Jest nim czułość. Wyrażana w stopniach ASA, DIN lub GOST. Oznacza stopień reagowania elementu światłoczułego na światło. Im większa wartość czułości, tym mniej światła potrzeba, by prawidłowo naświetlić zdjęcie. Najczęściej posługujemy się obecnie stopniami w systemie ISO. Na opakowaniach negatywów znaleźć się musi informacja o tym parametrze – na przykład 200/24 ISO. Odszyfrować ten zapis możemy w następujący sposób: czułość filmu w skali ASA wynosi 200, zaś w skali DIN 24. W technice cyfrowej aktualnie stosuje się praktycznie jedynie skalę ASA. Najczęściej spotykane w tej skali wartości wynoszą: 50, 100, 200, 400, 800, 1600. Dwukrotny wzrost wartości informuje nas, że do zrobienia poprawnie naświetlonego zdjęcia w tych samych warunkach potrzebować będziemy dwa razy mniej światła. Czyli zmieniając kliszę czy ustawienia czułości w aparacie ze 100 na 200, możemy w tych samych warunkach zrobić poprawne technicznie zdjęcie przy dwukrotnie krótszym czasie czy też przy przymkniętej o jeden stopień przysłonie. Zdawałoby się, że rozwiązaniem wielu problemów byłoby stosowanie jak największych czułości. Można by wtedy robić ostre zdjęcia przy przymkniętej przysłonie i krótkich czasach naświetlania. Niestety, wysokie czułości mają dwie zasadnicze wady – jedną z nich jest cena w przypadku negatywów, drugą zaś tzw. ziarno (przy negatywach) czy szumy (przy matrycach światłoczułych). Najbardziej rozpowszechnionymi na rynku są negatywy o czułościach od 50 do 400 ASA. Wyższe czułości wymagają stosowania bardziej zaawansowanych, a więc i droższych technologii. Ziarno i szumy zaś w wyraźny sposób wpływają niekorzystnie na jakość zdjęć, na ich ostrość i barwę. Zwykłemu fotografowi hobbyście pozostaje więc korzystanie ze standardowych materiałów światłoczułych. Na tym zakończymy pierwszą część naszej pogadanki. Omówiłem tu najbardziej podstawowe parametry ograniczające proces fotografowania. To jednak tylko wierzchołek góry lodowej. Nie wspomniałem ani słowa o pomiarach światła, korekcji ekspozycji, trybach automatycznych i półautomatycznych, słowem nie zająknąłem się nawet o zasadach kompozycji obrazu. O tym porozmawiamy w następnych numerach naszego ulubionego periodyku internetowego. Mam nadzieję, że tekst ten pozwolił Wam poznać i zrozumieć podstawowe zjawiska dotyczące fotografii. Rozumienie tych zagadnień pozwala bowiem dopasować ustawienia aparatu tak, by osiągnąć zamierzony cel. Cel, którym jest poprawnie sporządzone zdjęcie. Bo tak naprawdę w całej tej gadaninie o sprzęcie, zjawiskach, markach, aparatach, obiektywach chodzi o robienie zdjęć. Coraz lepszych technicznie i artystycznie. Czego i Wam, i sobie życzę!
Obraz anamorfotyczny – Wikipedia, wolna encyklopedia
Obraz anamorfotyczny – termin używany w odniesieniu do kinematograficznej techniki rejestracji obrazu panoramicznego na taśmach filmowych 35 mm, a także innych mediach służących do zapisu obrazu i w początkowym założeniu przystosowanych do rejestracji obrazu o proporcjach niepanoramicznych. Termin ten stosowany jest także w odniesieniu do projekcji kinowej wymagającej projektorów wyposażonych w optykę z soczewkami anamorfotycznymi pozwalającymi odtworzyć oryginalne proporcje obrazu na ekranie. Obrazu anamorfotycznego nie należy mylić z opracowanym dla potrzeb telewizji cyfrowym obrazem anamorfotycznym, który opiera się na podobnych założeniach, ale wykorzystuje do kompresji całkiem inne metody.
Historia rozwoju [ edytuj | edytuj kod ]
Rys 1. Podczas rejestracji obrazu panoramicznego bez wykorzystania soczewek anamorfotycznych dostępna powierzchnia klatki filmowej nie jest wykorzystywana w całości. Część powierzchni jest tracona na szerokie linie międzyklatkowe.
Rys 2. Zastosowanie soczewki anamorfotycznej optycznie ściska obraz w poziomie umożliwiając całkowite wykorzystanie powierzchni klatki filmowej, co skutkuje poprawą jakości obrazu. Do odtworzenia takiego filmu potrzebny jest projektor z soczewką anamorfotyczną pozwalający na rozciągnięcie obrazu i odzyskanie jego oryginalnych proporcji.
Pierwsze rozwiązania [ edytuj | edytuj kod ]
Proces anamorfotycznego zniekształcenia obrazu został opracowany przez francuskiego profesora Henriego Chrétiena podczas I wojny światowej w celu zapewnienia szerokiego pola widzenia z ówcześnie bardzo dynamicznie rozwijanych czołgów[1]. Proces ten nazwany przez Chrétiena terminem Hypergonar pozawalał na 180-stopniową obserwację pola walki. Po zakończeniu wojny technologia ta zaczęła być wykorzystywana w kinematografii, a pierwszym filmem zaprezentowanym z użyciem hypergonaru był krótki obraz z 1927 roku w reżyserii Claude’a Autant-Lara Pour Construire un Feu[2]. Później technika anamorfotycznego obrazu panoramicznego nie była już wykorzystywana, aż do 1952 roku, kiedy to amerykańska wytwórnia filmowa Twentieth Century-Fox zakupiła prawa do jej używania we własnym systemie panoramicznym CinemaScope[2]. System CinemaScope był jednym z wielu opracowanych w latach 50. w celu zachęcenia publiczności do powrotu do kin w świetle wzrastającej konkurencji ze strony telewizji. Pierwszym pełnometrażowym filmem, który został zrealizowany z użyciem optyki anamorfotycznej, był pokazany w 1953 roku Tunika (ang. The Robe). Rozwój szerokoekranowej techniki anamorfotycznej został podyktowany potrzebą poszerzenia proporcji obrazu. Współczesne panoramiczne systemy anamorfotyczne posiadają proporcje 2,39:1, co oznacza, że obraz jest 2,39 razy dłuższy od swojej wysokości. Format akademii będący standardowym nieanamorfotycznym systemem zapisu na taśmie 35 mm posiada proporcje 1,37:1, które nie zapewniają uzyskania obrazu panoramicznego. W konwencjonalnych systemach zapisu szerokoekranowego przy pomocy zwykłych soczewek sferycznych obraz ma szerokość równą szerokości klatki filmowej. W celu zachowania proporcji obrazu panoramicznego część powierzchni klatki jest tracona przez maskowanie w procesie produkcji filmu (maskownica na obiektywie kamery) lub już w kinie podczas wyświetlania (maskownica na projektorze) (Rys. 1).
W celu wykorzystania całej powierzchni klatki filmowej stosuje się obiektywy z soczewkami anamorfotycznymi, które dwukrotnie kompresują (ściskają) obraz w poziomie (Rys. 2). Wraz ze zwiększeniem wykorzystania powierzchni klatki wzrasta również jakość zapisanego obrazu. Wprowadzone w procesie nagrywania zniekształcenie obrazu musi być odwrócone podczas jego odtwarzania, dlatego do projekcji używa się innej soczewki anamorfotycznej, rozciągającej obraz w poziomie do odpowiednich proporcji. Należy zwrócić uwagę, że obraz nie jest modyfikowany w pionie w żaden sposób, a soczewka anamorfotyczna powoduje jedynie kompresję wymiaru w jednym kierunku, czyli w poziomie.
Mogłoby się wydawać, że można uzyskać obraz panoramiczny prostszymi metodami, ale ze względu na powszechność wykorzystania taśmy filmowej standardu 35 mm ekonomiczniejsze dla producentów i właścicieli kin było dodanie odpowiednich soczewek do kamer i projektorów, niż inwestowanie w całkiem nowy format obrazu. Wprowadzenie nowej technologii wymagałoby nowego wyposażenia do przetwarzania i edycji obrazu, kamer i projektorów.
Schemat projekcji skompresowanego obrazu filmowego na szerokim ekranie
Pierwszą próbą uzyskania obrazu panoramicznego był oparty na trzech zsynchronizowanych kamerach kamerach system Cinerama, ale ostatecznie jako praktyczniejszy zwyciężył sposób oparty na soczewkach anamorfotycznych. System Cinerama poprzedził wprowadzenie standardów anamorfotycznych, ale produkcja filmów w tej technologii posiadała szereg wad. Trzy obrazy z trzech równolegle ustawionych kamer nigdy nie pasowały do siebie idealnie, zwłaszcza na krawędziach, a do ich odtwarzania potrzeba było aż trzech doskonale zsynchronizowanych projektorów wyświetlających obrazy z taśm filmowych o niestandardowej wysokości klatki wynoszącej 6 otworów[3], co zwiększało czterokrotnie całkowitą długość materiału filmowego. Ponadto do kręcenia filmów potrzebne były trzy kamery lub jedna, trójobiektywowa, naświetlająca obraz jednocześnie na trzech taśmach, co z kolei powodowało problemy z synchronizacją. Mimo to popularność kina panoramicznego była bardzo duża, co we wczesnych latach 50. motywowało wytwórnie do prac nad nowymi technologiami wyświetlania. Ogólnie bardzo niewielka liczba filmów była dystrybuowana w formacie Cinerama i wyświetlana w specjalnie przystosowanych do niego kinach[4]. Atrakcyjność systemu anamorfotycznego polegała na tym, że oferował on podobne proporcje obrazu co Cinerama (2,59:1), ale bez jego niewygody i konieczności synchronizacji mechanizmów przesuwu taśm.
Rozwiązania współczesne [ edytuj | edytuj kod ]
Obecnie popularnie używany standard panoramiczny nazywany jest ogólnie jako „Scope” lub „2,35”, a pojawiający się w czołówkach filmów napis „Filmed in Panavision” oznacza, że materiał został nakręcony przy użyciu anamorfotycznej optyki opracowanej przez Panavision. Wszystkie powyższe nazwy oznaczają, że przeznaczona do dystrybucji kopia filmu wykorzystuje projektor z soczewką anamorfotyczną zmieniającą proporcje na 2:1, czyli rozciągającą obraz dwukrotnie w poziomie. Format ten jest prawie identyczny z wcześniejszym CinemaScope, poza nieznacznymi różnicami technicznymi.
Okrągła przysłona obiektywu anamorfotycznego widziana od frontu wydaje się mieć kształt owalu.
Stosowanie kamer z soczewkami anamorfotycznymi powoduje niejednokrotnie powstawanie specyficznych artefaktów, które nie występują przy filmowaniu z użyciem klasycznej optyki sferycznej. Jednym z nich są flary z charakterystycznymi, poziomymi liniami o niebieskim zabarwieniu, które są najbardziej widoczne przy filmowaniu jasnych punktów na ciemnym tle, np. świateł samochodowych w nocy. Cecha ta niekoniecznie jest wadą i niejednokrotnie bywa wstawiana jako efekt specjalny do produkcji filmowanych zwykłymi soczewkami, aby zasymulować anamorfotyczne. Inną charakterystyczną cechą obrazu filmowanego optyką anamorfotyczną są refleksy świetlne na soczewkach, które mają kształt eliptyczny, a nie kolisty. Poza tym szeroki kąt soczewek anamorfotycznych przy zastosowaniu ogniskowych krótszych niż 40 mm powoduje powstanie perspektywy cylindrycznej wykorzystywaną przez niektórych reżyserów i operatorów.
Inną charakterystyczną dla soczewek anamorfotycznych cechą jest tendencja do rozmywania obiektów znajdujących się poza zakresem głębi ostrości bardziej w kierunku poziomym, niż pionowym. Oddalone punkty światła znajdujące się w tle obrazu pojawiają się jako owale. Podczas zmiany ogniskowej obiektywu w miarę przybliżania wyraźnie widać kurczenie się ich w poziomie, aż do rzeczywistego kształtu okręgu. Popularne twierdzenie, że soczewki anamorfotyczne posiadają mniejszą głębię ostrości, nie jest do końca prawdziwe. Obecność w obiektywie anamorfotycznym cylindrycznego elementu optycznego powoduje, że rejestruje on dwa razy szerszy obraz niż soczewka sferyczna o tej samej ogniskowej. W związku z powyższym operatorzy kamer stosują anamorfotyczne obiektywy o ogniskowej 50 mm odpowiadające optyce sferycznej 25 mm, 70 mm odpowiadające 35 mm i tak dalej.
Chociaż format szerokoekranowego obrazu anamorfotycznego nadal jest wykorzystywany w kamerach filmowych, to coraz bardziej traci on popularność na rzecz standardu Super 35. Wykorzystuje on zwykłe soczewki sferyczne znacznie doskonalsze od anamorfotycznych[5], a obraz jest maskowany od góry i od dołu do uzyskania pożądanej proporcji. W procesie postprodukcji możliwe jest wykonanie kopii w dowolnym standardzie, także do wyświetlania w kinach z projektorami wyposażonymi w anamorfotyczne obiektywy. Najważniejsze różnice standardu Super 35 w porównaniu do anamorfotycznego polegają na tym, że:
obiektywy anamorfotyczne powodują powstawanie artefaktów i zniekształceń opisanych powyżej,
optyka anamorfotyczna jest znacznie droższa, niż soczewki sferyczne,
optyka anamorfotyczna nie rejestruje żadnych danych o obrazie ponad i poniżej krawędzi klatki, więc nie może być w prosty sposób przeniesiona na media o węższych proporcjach obrazu, takich jak 4:3 czy 16:9, popularnych w telewizji,
ziarno współczesnych materiałów światłoczułych jest bardzo małe, a dzięki wysokiej jakości procesowi postprodukcji cyfrowej Digital Intermediate (w skrócie DI), format anamorfotyczny zawsze będzie oferował większą rozdzielczość obrazu, niż standardy nieanamorfotyczne.
Mimo niedoskonałości format obrazu panoramicznego oparty na optyce anamorfotycznej jest głęboko zakorzeniony we współczesnej kinematografii. Bez względu na rodzaj kamer i optyki wykorzystywanych do produkcji filmów, kopie dystrybucyjne są w znakomitej większości produkowane w proporcji panoramicznej 2,39:1 dla projektorów anamorfotycznych. Prawdopodobnie sytuacja ta nie zmieni się szybko, ze względu na to, że właściciele kin na całym świecie nie są chętni do zmiany urządzeń projekcyjnych.
Wielu reżyserów i producentów filmowych, wykorzystujących standard anamorfotyczny, kręci swoje filmy tylko w taki sposób. Do reżyserów wiernych anamorfotycznemu standardowi panoramicznemu należą między innymi Clint Eastwood, John McTiernan, Jan de Bont, Mel Gibson i Michael Bay. Wielu słynnych operatorów filmowych, takich jak Donald McAlpine, Vilmos Zsigmond, László Kovács i John Schwartzman stało się swego rodzaju adwokatami formatu anamorfotycznego.
Określenie proporcji obrazu [ edytuj | edytuj kod ]
Ze względu na nieporozumienia dotyczącego określenia proporcji obrazu dla taśm filmowych 35 mm, funkcjonuje obecnie kilka jego nazw. Soczewka anamorfotyczna zapewnia kompresję obrazu w poziomie w stosunku 2:1, co logicznie rzecz ujmując powinno skutkować dwukrotnym poszerzeniem standardowego formatu akademii 1,37:1 i dać w rezultacie 2,74:1. Ze względu na różnice w przysłonach i rozmiarach maskowaniu obrazu dla filmów anamorfotycznych ich rozmiary różniły się od produkcji kręconych kamerami ze standardową sferyczną optyką. Dodatkowo standard określony przez SMPTE zmieniał się wraz z upływem czasu, a filmy nakręcone przed 1957 posiadały zamiast magnetycznej, optyczną ścieżkę zapisu dźwięku, która zajmowała część klatki zmieniając proporcje obrazu do 2,55:1.
Pierwszą definicję standardu, opracowaną przez SMPTE (PH22.106-1957) dla projekcji anamorfotycznej z optyczną ścieżką dźwiękową, wydano w grudniu 1957, określając rozmiar klatki na 0,839 × 0,715 cala (proporcja 1,17:1). Proporcja obrazu po dwukrotnym rozciągnięciu soczewką anamorfotyczną wynosiła 2,35:1. Kolejna definicja standardu (PH22.106-1971) została wydana w październiku 1970 i określiła wysokość obrazu jako odrobinę mniejszą w celu łatwiejszego zamaskowania klejeń negatywu podczas projekcji (taśma z zapisem anamorfotycznym posiadała mniejszą przerwę międzyklatkową, niż jakikolwiek inny standard). Nowa wielkość klatki została określona na 0,838 × 0,7 cala w proporcji 1,19:1, co po dekompresji dało wartość 2,39:1 (bardzo często zaokrąglaną do 2,40:1). Ostatnia, najaktualniejsza definicja standardu (SMPTE 195-1993), wydana w sierpniu 1993 roku, nieznacznie zmieniła proporcje obrazu w celu ujednolicenia szerokości klatki wszystkich formatów, tak anamorfotycznych, jak i sferycznych, do 0,825 cala. Przy zachowaniu poprzedniej proporcji klatki wynoszącej 1,19:1 jej wymiary wynoszą 0,825 × 0,690 cala[6].
Anamorfotyczne kopie projekcyjne filmów, głównie przez przyzwyczajenie, są do tej pory nazywane przez profesjonalistów z branży filmowej Scope lub 2,35. Obecnie oznaczenia 2,35:1, 2,39:1 i 2,40:1 odnoszą się do tego samego standardu (poza specjalistycznymi zastosowaniami i badaniami historycznymi).
Producenci optyki i nazwy formatów [ edytuj | edytuj kod ]
Na świecie istnieje wielu producentów soczewek anamorfotycznych, a poniżej wymieniono jedynie tych, których produkty są wykorzystywane w przemyśle filmowym.
Rejestracja obrazu [ edytuj | edytuj kod ]
Panavision: Najważniejszy producent optyki anamorfotycznej posiadający w ofercie wiele serii obiektywów anamorfotycznych o ogniskowych od 20 do 2000 mm. C-Series – najstarsza seria C to małe i lekkie obiektywy najpopularniejsze w ręcznych kamerach ze stabilizacją steadicam. Niektórzy z operatorów preferują tę serię soczewek ze względu na uzyskiwany przy ich pomocy obraz o mniejszym kontraście. E-Series – seria E jest oparta na soczewkach produkcji Nikona o znacznie większej ostrości obrazu i lepszym odwzorowaniu kolorów. Obiektywy tej serii są jaśniejsze, ale przy krótkich ogniskowych i filmowaniu z małej odległości nie zapewniają zbyt dobrej jakości zdjęć. Obiektywy anamorfotyczne E135 mm, a szczególnie E180 mm, posiadają najlepsze parametry do filmowania zbliżeń ze wszystkich wykorzystywanych w systemie Panavision. Super (High) Speed – seria bardzo jasnych obiektywów z soczewkami Nikona, najjaśniejszych dostępnych na rynku optyki anamorfotycznej, charakteryzujące się niskimi wartościami przysłony od 1,4 do 1,8. Istnieje również bardzo jasny obiektyw o ogniskowej 50 mm i przysłonie 1,1. Tak jak wszystkie obiektywy z soczewkami anamorfotycznymi, także i te charakteryzują się dość miękkim (lekko rozmytym) obrazem na najniższych wartościach przysłony, dlatego w celu poprawienia ostrości należy je przymykać. Primo Series i Close-Focus Primo Series – najnowsze serie anamorfotycznych obiektywów wytwórni Panavision. Oparte na soczewkach sferycznych Primo obiektywy charakteryzujące się najlepszą ostrością odwzorowania obrazu ze wszystkich obiektywów anamorfotycznych, oraz doskonałą reprodukcją koloru. Największą wadą tego rozwiązania jest duża masa optyki (od 5 do 7 kg).
Vantage Film: projektant i producent optyki Hawk, które posiadają soczewkę anamorfotyczną umieszczoną wewnątrz, a nie, jak w systemie Panavision, na początku obiektywu, co przeciwdziała powstawaniu flar. Rozwiązanie to powoduje, że nawet jeśli flary powstaną, to są one okrągłe, a nie rozciągnięte horyzontalnie w typowy dla obiektywów anamorfotycznych sposób. C-Series – opracowana w połowie lat 90. seria obiektywów o względnie małych rozmiarach i niskiej masie. V-Series i V-Plus Series – najnowsze serie obiektywów, z których pierwsza została opracowana w 2001, a druga w 2007 roku. Są to obiektywy będące wersją rozwojową poprzedniej serii C, z poprawionym kontrastem, ostrością, ogniskowaniem z bliska i zniwelowanymi zniekształceniami beczkowatymi. Poprawienie charakterystyk optycznych spowodowało wzrost masy obiektywów (każdy z nich waży od 4 do 5 kg). Seria składa się z 14 obiektywów o ogniskowych od 25 do 250 mm. Obiektywy serii V umożliwiają uzyskanie najlepszej ostrości zbliżeń ze wszystkich systemów obiektywów anamorfotycznych i mogą w tej dziedzinie konkurować z optyką opartą na soczewkach sferycznych.
Joe Dunton Camera (JDC): producent i wypożyczalnia sprzętu optycznego, działający w Anglii i Karolinie Północnej. JDC przystosowuje obiektywy oparte na soczewkach sferycznych do kinematografii anamorfotycznej, poprzez dodanie cylindrycznego elementu optycznego. Najpopularniejszym rozwiązaniem firmy jest przebudowa obiektywu Cooke S2/S3, chociaż zajmuje się ona także adaptacją optyki firmy Carl Zeiss, serii Super Speeds i Standards, oraz Canona.
Elite Optics: rosyjski producent charakteryzujących się najlepszą na świecie jakością soczewek anamorfotycznych. Sprzedaż tej optyki w Stanach Zjednoczonych prowadzi firma Slow Motion, Inc.
Technovision: francuski producent, który, tak jak JDC, dostosowuje obiektywy z optyką sferyczną do potrzeb formatu anamorfotycznego.
Isco Optics: niemieckie przedsiębiorstwo, które opracowało w 1989 optykę anamorfotyczną Arriscope dla wytwórni Arri.
Schneider Kreuznach: znany również pod nazwą Century producent szeroko wykorzystywanych obiektywów anamorfotycznych do projektorów kinowych. Firma produkuje również adaptery anamorfotyczne, które mogą być instalowane w cyfrowych kamerach wideo.
producent szeroko wykorzystywanych obiektywów anamorfotycznych do projektorów kinowych. Firma produkuje również adaptery anamorfotyczne, które mogą być instalowane w cyfrowych kamerach wideo. ISCO Precision Optics: niemiecki producent soczewek anamorfotycznych do projektorów kinowych.
Super 35 i Techniscope [ edytuj | edytuj kod ]
Chociaż wiele filmów panoramicznych zostało nakręconych przy użyciu kamer z optyką anamorfotyczną, to czasami zachodzi konieczność, podyktowana względami technicznymi lub estetycznymi, zastosowania obiektywów opartych na soczewkach sferycznych. Pomimo to, nadal jest możliwe uzyskanie kopii dystrybucyjnej z obrazem anamorfotycznym o proporcjach 2,39:1, którą uzyskuje się na drodze zaawansowanej obróbki laboratoryjnej, wspieranej systemami komputerowymi. Zmiana proporcji obrazu na panoramiczny wiąże się też ze stratą części powierzchni klatki, która jest przysłaniana u góry i u dołu kadru, mimo to operacja ta jest nadal bardzo atrakcyjną umożliwiając zmianę formatu kopii filmu na wykorzystujący do projekcji optykę sferyczną format z potrójną perforacją lub rzadziej z podwójną (system Techniscope).
Nazwy handlowe formatów anamorfotycznych [ edytuj | edytuj kod ]
Od początku historii kinematografii anamorfotyczny format obrazu był znany pod wieloma nazwami handlowymi, które nadano dla odróżnienia technik jego otrzymywania, podniesienia prestiżu wytwórni lub próżności właścicieli wytwórni filmowych. Podstawowy format anamorfotyczny zapisany na taśmie filmowej 35 mm został spopularyzowany jako CinemaScope, ale rozpowszechniany także pod wieloma innymi nazwami. W niektórych przypadkach nadanie nazwy rzeczywiście było umotywowane różnicami technicznymi, ale większość z nich była identyczna z pierwowzorem różniąc się jedynie nazwą. Wielość nazw spowodowała, że zaczęto używać wspólnego określenia opisującego tę technologię jako format anamorfotyczny. Poniższe nazwy handlowe bazują na opracowanym przez SMPTE standardzie taśmy filmowej 35 mm. Generalnie wszystkie poniższe technologie oparte są o wykorzystanie dwukrotnie kompresującej obraz soczewki anamorfotycznej, identycznej dla procesu produkcji i odtwarzania i proporcjach obrazu 2,35:1 do roku 1970 i 2,39:1 po roku 1970.
Nazwy handlowe [ edytuj | edytuj kod ]
AgaScope (Szwecja i Węgry)
ArriScope (Niemcy) – technologia opracowana przez Arri.
ArriVision (Niemcy) – technologia 3D.
Cinepanoramic (Francja)
CinemaScope (Stany Zjednoczone i Francja) – przed standaryzacją proporcje obrazu wynosiły odpowiednio 2,66:1 i 2,55:1.
Cinescope (Włochy)
Colorscope (Włochy) – wykorzystywana z różnymi formatami obrazu włącznie z anamorfotycznym.
Daiescope (Japonia)
Dyaliscope (Francja)
Euroscope
Franscope (Francja)
Grandscope (Japonia)
Hammerscope (Anglia)
JDC Scope (Anglia) – system opracowany przez Joe Duntona.
Megascope (Anglia)
Naturama
Nikkatsu Scope (Japonia)
Panavision (Stany Zjednoczone)
Panoramic(a) (Włochy)
Regalscope (Stany Zjednoczone) – nazwa używana przez 20th Century Fox dla filmów czarno-białych w technologii CinemaScope.
Scanoscope
Shawscope (Hongkong)
Sovscope (Związek Radziecki)
Space-Vision – kino trójwymiarowe 3D
Spectrascope
SuperCinescope (Włochy)
SuperTotalscope (Włochy)
Technovision (Francja)
Todd-AO 35 (Stany Zjednoczone)
Toeiscope (Japonia)
Tohoscope (Japonia)
Totalscope (Włochy)
Totalvision (Włochy)
Ultrascope (Niemcy)
Vistarama
WarnerScope (Stany Zjednoczone) – opracowana przez Warner Bros.
Warwickscope (Anglia)
Zobacz też [ edytuj | edytuj kod ]
3. Omów metodę pomiaru światła w kamerze wideo i metodę oceny jasności obrazu wideo.
Transkrypt
1 1. Co to jest ogniskowa obiektywu i jaki ma związek z kątem widzenia obiektywu. Na jakie parametry obrazu wpływa zmiana ogniskowej obiektywu? Ogniskowa (odległość ogniskowa) odległość pomiędzy ogniskiem układu optycznego, a punktem głównym tego układu. - W fotografii i kinematografii przyjmuje się, że obiektyw, który daje obraz zbliżony do tego jak widzi oko człowieka, to obiektyw standardowy. - Dla aparatów małoobrazkowych jest to obiektyw o ogniskowej 50 mm, dla kamery Super 35 mm natomiast obiektyw o ogniskowej 60 mm. - W obu przypadkach kąt widzenia wynosi ok. 40 st. w poziomie. - Obiektywy o ogniskowej mniejszej mają szerszy kąt widzenia np. 18mm i dłuższą głębię ostrości. - Obiektywy o ogniskowej większej mają węższy kąt widzenia np. 80mm i krótszą głębię ostrości. 2. Co to jest przysłona obiektywu. Podaj szereg liczb, którymi opisany jest pierścień przysłony. Co oznaczają kolejne jej wartości. Jak przysłona wpływa na odwzorowanie obrazu? Przysłona - element obiektywu regulujący ilość światła wpadającego przez obiektyw. Jest skonstruowany z listków zasłaniających otwór obiektywu. - Szereg liczb przysłony - 1,4 2 2,4 4 5, Wielkość przysłony wpływa na głębię ostrości. (Wyższa liczba przysłony - dłuższa głębia ostrości, niższa - krótsza). 3. Omów metodę pomiaru światła w kamerze wideo i metodę oceny jasności obrazu wideo. Kamera nie dokonuje pomiaru światła. W rzeczywistości mierzony jest poziom sygnału wideo. - Prawidłowa ekspozycja to taka, która posiada odpowiednie poziomy wideo istotne z punktu widzenia opowiada filmowego. - W studio do oceny poziomu sygnału wideo służy oscyloskop sygnałów wizyjnych. Operator natomiast korzysta z funkcji zebra. - Zebra to wzór wyświetlany na monitorze podglądowym w miejscach, w których osiągnięty został odpowiednio wysoki poziom wideo. Zebrę najczęściej ustawia się na 70%. 4. Co to jest przerysowanie i spłaszczenie perspektywy, kiedy powstaje i jakie nakłada ograniczenia na operatora kamery? Spłaszczenie i przerysowanie perspektywy jest skutkiem różnic w powiększeniu wzdłużnym i poprzecznym obiektywu. - W fotografii i filmie obiektywy o krótszych ogniskowych łączy się ze zjawiskiem przerysowania perspektywy, a obiektywy o ogniskowych dłuższych ze zjawiskiem spłaszczenia perspektywy. - Obiektywy o krótszej ogniskowej stosuje się zazwyczaj po to, by kamerę lub aparat ustawić bliżej obiektów, a obiektywy o dłuższej ogniskowej dalej obiektów. W fotografii i kinematografii przyjmuje się, że obiektyw, który daje obraz zbliżony do tego jak widzi oko człowieka, to obiektyw standardowy. - Dla aparatów małoobrazkowych jest to obiektyw o ogniskowej 50 mm (FF - pełna klatka), dla kamery Super 35 mm natomiast obiektyw o ogniskowej 60 mm. W obu przypadkach kąt widzenia wynosi ok. 40 st. w poziomie. W kamerze tv wyposażonej w transfokator zazwyczaj nie oznacza się wartości ogniskowej, która byłaby ogniskową obiektywu standardowego, z powodu dużej niezgodności kąta widzenia obiektywy.
2 5. Co to jest głębia ostrości, jak powstaje, od czego i jak zależy? Głębia ostrości to parametr stosowany w fotografii i optyce, umownie oznaczający obszar, w którym obiekty mają ostre krawędzie. - Wpływ na głębię ostrości ma: ogniskowa obiektywu, przysłona i odległość kamery/aparatu od obiektu. Ogniskowa: Obiektywy o ogniskowej mniejszej mają dłuższą głębię ostrości, obiektywy o ogniskowej większej mają krótszą głębię ostrości. Przysłona: Mała wartość przysłony to krótka głębia ostrości, duża wartość przysłony to długa głębia ostrości. Odległość kamery/aparatu od obiektu: Obiekty blisko położone i pierścień ostrości ustawiony na bliską odległość - krótsza głębia ostrości, obiekty daleko położone i pierścień ostrości ustawiony na daleką odległość - dłuższa głębia ostrości. -Nieostre tło za bohaterem kadru zastosowane jako celowy zabieg to efekt bokeh. 6. Co to jest filtr ND? Podaj przykłady zastosowania filtra ND w kamerze wideo i oświetleniu. Filtr ND (Neutral density) czyli filtr neutralny albo szary służy do ograniczenia ilości światła padającego na matrycę bez wpływu na kolorystykę oraz kontrast obrazu. Znajduje się on między obiektywem a matrycą światłoczułą. Opisujemy go ułamkiem, np. ½ ¼ 1/8 1/16 itd. Filtry stosowane w postaci folii używamy do ograniczenia padającego z lamp, zza okna itd. Opisujemy je skalą logarytmiczną, np. 0,3 0,6 0,9 1,2 lub 3, 6, 9, 12. Wartość 0,3 lub inaczej 3 oznacza ograniczenie ilości światła o połowę. Jest to odpowiednik ułamka ½ filtra ND znajdującego się na kamerze. 7. Omów sposoby powstawania obrazu wideo w trybie interlejsowanym i progresywnym. Obraz wideo może być wyświetlany i przesyłany w trybie progresywnym lub interlejsowanym. - W trybie progresywnym wszystkie linie obrazu są nagrywane, nadawane i wyświetlane jednocześnie. - W trybie interlejsowanym obraz dzielony jest na linie parzyste i nieparzyste, czyli tzw. półpola, które są rejestrowane i nadawane jedno po drugim kolejno lub w odwróconej kolejności. Poprawia to płynność ruchu w obrazie wideo, ale stwarza duże problemy przy konwersji na sygnał progresywny. Oba tryby są wciąż stosowane do przesyłania i wyświetlania obrazów cyfrowych w niektórych systemach. 8. Co to jest shutter kamery wideo? Podaj wady i zalety zastosowania różnych wartości shuttera. Shutter kamery to odpowiednik mechanicznej migawki kamery/aparatu. - Migawka mechaniczna pozwala na odsłanianie negatywu i naświetlanie go, a następnie zasłanianie w celu przesunięcia do następnej klatki. - W technice wideo odpowiada temu detekcja i sczytywanie matrycy. - Shutter dla Europy: 1/50s, dla USA i podobnych 1/60s. - Czas naświetlania może być skrócony, ale nie wydłużony. Wydłużenie czasu naświetlania spowodowałoby efekt rozmytego obrazu, ponieważ kamera nie rejestrowałaby odpowiedni ilości obrazów na sekundę. - Skracamy go w niewielkim stopniu w celu dostosowania go do migotania lamp wyładowczych, ekranu komputera czy lamp LED. Skrajce skrócenie czasu naświetlania powoduje strobowanie obrazu.
3 9. Na czym polega wzmocnienie sygnału wideo? Omów funkcję GAIN w kamerze wideo, jego wady i zalety. GAIN to wzmocnienie mocy sygnału wideo. Wzmacnianie wideo podnosi jego jasność, co w pewnym sensie przypomina efekt otwarcia przysłony. - Stosowanie funkcji GAIN w kamerze związane jest ze zwiększeniem szumów w obrazie, zwłaszcza w jego ciemnych obszarach. Obraz jest zazwyczaj wyświetlany tak, by zakłócenia były widocznie w jak najmniejszym stopniu. - 6dB to dwukrotne zwiększenie sygnału. W jakości HD używa się najwięcej 6dB, a SD 9dB. 10. Co to jest poziom sygnału wideo? Co odwzorowuje poziom 100 IRE, 7,5 IRE, 0 IRE? Podaj sposoby kalibracji poziomu wideo w urządzeniach wideo. Poziom sygnału wideo to jego amplituda - napięcie - wyskalowana w jednostkach IRE. - W technice tv wszystkie odcienie szarości powinny mieścić się w zakresie 7,5 IRE, a 100 IRE. - Pomiędzy 0-7,5 IRE sygnał wyświetlany jest jako czarny, w tym zakresie jest również najbardziej zaszumiony. W technice tv 100 IRE to white level (poziom bieli), 7,5 IRE black level (poziom czerni), a 0 IRE blank level (poziom wygaszania). - Na karcie graficznej komputera poziom czerni wyświetlany jest dopiero z poziomem 0 IRE, a nie tak jak w technice tv 7,5 IRE. Do prawidłowej kalibracji czerni w telewizorze służy obraz kontrolny SEMTE (tzw. półpasy). 11. Co to jest temperatura barwowa? Podaj standardy fotograficzne temperatury barwowej. Jakie są ograniczenia stosowania parametru temperatury barwowej w fotografii i filmie (telewizji). Temperatura barwowa to wartość liczbowa opisująca barwę światła, wyliczona w oparciu o teorię ciała doskonale czarnego. Barwa światła jest skutkiem jego składu widmowego opisanego za pomocą układu trójbodźcowego RGB. - Parametr temperatury barwowej bardzo dobrze opisuje lampy, w których światło jest skutkiem rozgrzania metalu (żarówka wolframowa, halogenowa) oraz światło słoneczne (zwłaszcza w środkowej części dnia). - Parametr temperatury barwowej słabo sprawdza się do opisu świateł wyładowczych (świetlówki, lampy HMI i diody LED). - Parametr temperatury barwowej nie nadaje się do opisu lamp niskociśnieniowych sodowych i rtęciowych powstałby efekt zacinającego się obrazu oraz halogenowo-metalowych stosowanych do oświetlania ulic. Standardem temperatury barwowej w fotografii jest tungsten (3200K - teatr 3000K) oraz day light (5600K - dla światła sztucznego K). 12. Co to jest konwersja temperatury barwowej? Na czym polega? Podaj przykłady filtrów podnoszących i obniżających temperaturę barwową. Konwersja temperatury barwowej światła polega na przefiltrowaniu światła za pomocą filtra konwersyjnego. Filtrowanie światła polega zawsze na zmniejszaniu jego ilości. Podstawowym filtrem dokonującym konwersji światła 3200K na 5700K jest filtr CTB (Conversion Temperature Blue) o transparentności 34%. Podstawowym filtrem dokonującym konwersji światła 5700K na 3200K jest filtr CTO (Conversion Temperature Orange) o transparentności 50%.
4 13. Co to jest balansowanie bieli w kamerze wideo? Opisz działanie funkcji. Podaj procedurę ustawienia balansu bieli. Układ balansowania bieli w kamerze wideo dostosowuje parametry rejestracji obrazu do barwy światła. -Dwa podstawowe ustawienia barwy światła: Tungsten K oraz Day light K. Jeśli światło ma inną barwę niż wartości odpowiadające tugnsten czy day light koniczne jest zbalansowanie bieli - ustawienie kadru w taki sposób, by co najmniej 30% stanowił element, który w obrazie ma być odwzorowany jako biały. Następnie, funkcja WB dostosowuje parametry kolorystyczne obrazu tak, by biel i inne odcienie kolorów były reprodukowane poprawnie. 14. Co to jest indeks odwzorowania barwy i jakich rodzajów światła dotyczy? Indeks odwzorowania barwy - Colour Rendering Index - to wskaźnik oddaniaa barw. Wyrażony jest w przedziale Określa jak dobrze postrzegane są barwy oświetlonych przedmiotów. Im współczynnik ten jest wyższy, tym barwy są lepiej oddawane, a oświetlane przedmioty wyglądają naturalniej. Lampy stosowane w filmie i telewizji powinny mieć indeks odwzorowania barwy 100. Lampy uliczne mają ujemny indeks co wskazuje na ich nieprzydatność w filmie. 15. Co to jest obszar NTSC w cyfrowym sygnale wideo? Podaj parametry. Jest tradycyjnym zastosowaniem parametrów pochodzących z analogowego systemu NTSC dla sygnału cyfrowego. Dla sygnału SD 29,97 kl/s w obrazie progresywnym i 59,94 kl/s w obrazie interlejsowanym. Shutter wynosi 1/60 s, a rozdzielczość 640x Co to jest obszar PAL w cyfrowym sygnale wideo? Podaj parametry. Jest tradycyjnym zastosowaniem parametrów pochodzących z analogowego systemu PAL dla sygnału cyfrowego. Dla sygnału SD 25 kl/s w obrazie progresywnym i 50 kl/s w obrazie interlejsowanym. Shutter wynosi 1/50 s, a rozdzielczość 720x Co to jest synteza koloru poprzez mieszanie barw? Jakie znasz rodzaje syntezy? Czym się różnią? Dwa rodzaje syntezy koloru: -Synteza addytywna (RGB) - polega na mieszaniu barw wiązek światła widzialnego o różnych długościach fal. Barwy podstawowe w syntezie addytywnej: czerwony (R), zielony (G), niebieski (B). Suma tych barw w odpowiedniej ilości daje kolor biały. Synteza addytywna stosowana jest w technice wideo. -Synteza subtraktywna (CMY) - polega na mieszaniu się światła białego odbitego od powierzchni o różnych kolorach. Barwy podstawowe w syntezie subtraktywnej: cyjanowy (C), magenta (M), żółtojasny (Y). Suma tych barw w odpowiedniej ilości daje kolor czarny. Synteza subtraktywna stosowana jest w druku barwnym.
5 18. Co to są barwy dopełniające? Jakie są barwy dopełniające do barw RGB? Jakie dla barw CMY? Barwy dopełniające to pary barw, które zmieszane w różnych proporcjach dają barwę czarną biała lub szarą. Z racji zastosowania w technice wideo syntezy addytywnej pary barw są następujące: R-C (czerwony-cyjanowy) G-M (zielony-magenta) B-Y (niebieski-żółty) 19. Co to jest i jak działa matryca CCD? Podaj wady i zalety jej stosowania. Matryca CCD - Charge Coupled Device - urządzenie o sprzężeniu ładunkowym. - Sygnał wychodzący z matrycy jest analogowy, jeśli kamera posiadająca matryce CCD jest cyfrowa sygnał musi zostać przekształcony do postaci cyfrowej. - Matryca charakteryzuje się wysoką czułością, niskim poziomem szumów i obrazem o dobre j jakości. - Jest niestety urządzeniem skomplikowanym i trudnym do wykonania, dlatego jest bardzo droga. - Przesterowanie obrazu na matrycy CCD może tworzyć pionową, jasną kreskę na obrazie, ponieważ przesterowaniu ulegają także wszystkie piksele w rzędzie. - W matryce CCD zaopatrywane są kamery telewizyjne w standardzie HD, przeznaczone do nagrań najwyższej klasy. Matryca sama w sobie nie rejestruje kolor, jego rejestracja wymaga 3 matryc lub maski Bayer. 20. Co to jest i jak działa matryca CMOS? Podaj wady i zalety jej stosowania. Matryca CMOS - Complementary Metal Oxide Semiconductor - (składa się z par tranzystorów pmosnmos). Jest zbiorem pojedynczych pikseli, z których każdy pracuje samodzielnie. - Sygnał wychodzący z matrycy jest cyfrowy. Ze względu na swoją budowę - tranzystory MOS - matryca pobiera bardzo małą ilość energii, w związku z czym może być urządzeniem małym niewymagającym skomplikowanego zasilania. - Matryca charakteryzuje się większymi szumami w ciemnych punktach obrazu w porównaniu do matrycy CCD. Jej dodatkowym ograniczeniem jest sposób odczytywania przez procesor kamery. Z powodu dużej ilości danych jest ona sczytywana poziomymi wierszami tak, że gdy jedne wiersze są odczytywane inne rejestrują jeszcze obraz. Skutkuje to niechcianym zjawiskiem Rolling Shutter. Powoduje on przekrzywianie pionów, gdy kamera porusza się oraz błędy w odwzorowaniu obiektów poruszających się z dużą prędkością. Matryca jest tania w produkcji. Tak samo jak matryca CCD nie rejestruje ona koloru, jej rejestracja wymaga zastosowania 3 matryc lub maski Bayer.
Write a Comment