본문 바로가기

볼거리

[연작] 아이폰 7 자세히 알아보기 : 카메라

정말 오랫만에 아이폰 7 자세히 알아보기 시리즈로 여러분들을 찾아올 수 있게 되어 기쁘다. 오늘 살펴볼 것은 카메라편으로, 아이폰 7과 7플러스에서 향상된 ‘광각’ iSight 카메라는 물론이고 아이폰 7 플러스에만 들어가는 ‘망원’ 카메라의 성능과 두 개의 카메라가 어떻게 동작하는지에 대해 집중적으로 살펴볼 것이다. 물론 이 카메라들의 광학적 특성 뿐만 아니라 향상된 ISP와 더 넓어진 색영역에 대해서도 할 얘기가 있을 것이다. 기본적으로 아이폰 7 자세히 알아보기 시리즈들은 각각의 편만 읽어도 크게 문제가 없지만, 빛이라는 재료를 공유하는 디스플레이편은 먼저 읽고 오는 것이 좋다. 물론 미리 맛보기나 성능편도 읽고 오시면 더 좋고. 아래 그림들은 이 시리즈의 ‘목차’ 역할과 함께 링크를 포함하고 있어 원하는 편을 클릭해서 읽을 수 있도록 되어있으니 간단히 읽고 오시면 된다.

 


빛을 디지털 신호로 바꾸는 디지털 카메라

 

우리가 세상을 본다는 것은 세상이 내놓은 빛을 보는 것이다. 그 물체가 직접 빛을 내는 경우도 있고, 주위의 빛을 반사하는 경우도 있지만 어떤 경우든 우리는 눈까지 도달하는 빛을 본다. 빛이 없는 곳에서는 아무리 시력이 좋은 사람도 아무 것도 볼 수 없다. 빛이 빠져나오지 못하는 블랙홀이 ‘블랙’홀인 이유이다. 카메라 역시 마찬가지로 빛이 있어야만 장면을 기록할 수 있다. 초기의 거대한 카메라부터 필름 카메라, 디지털 카메라를 거쳐오면서도 카메라의 가장 기본적인 구조는 바뀌지 않았다. 결국은 빛을 기록한다는 공통점을 갖고 있기 때문이다. 우리 눈은 망막에 도달한 빛을 인지하고, 초창기의 거대한 카메라는 은판에 빛을 기록했고, 필름 카메라는 필름이라는 특수 용지에 빛을 기록했다. 오늘날의 디지털 카메라에서는 이미지 센서가 도달하는 빛을 기록한다.

 

물론 빛을 기록할 수 있는 매체를 그냥 원하는 풍경 앞에 둔다고 해서 그 풍경이 기록되지는 않는다. 필름을 필름 통에서 꺼내서 풍경을 비추고 한참을 기다리면 풍경이 필름에 기록되는 것이 아니라, 필름이 전체적으로 빛에 반응해서 필름만 버리게 될 것이다. 이는 필름에 모든 방향에서 온 빛이 다 영향을 주기 때문이다. 즉, 내가 원하는 빛을 골라서 기록하기 위해서는 그 방향에서 온 빛만을 모아서 필름에 투사해줄 수 있는 시스템이 필요하다. 이런 역할을 하는 것이 바로 렌즈 시스템이다. 우리 눈에서는 수정체가 이런 역할을 하고, 카메라에서는 렌즈가 이 역할을 담당한다. 렌즈가 적당히 빛을 모아 빛을 기록할 매체에 상을 맺히게 해주면 그 빛 정보가 기록되어서 사진이 탄생한다.

 

iPhone 7 Plus / ISO 32 / 메인 카메라 / 1/120

 

당연히 렌즈 시스템이 얼마나 상을 잘 맺어주느냐가 사진의 품질에 큰 영향을 준다. 잘 가공된 렌즈를 사용해 찍은 사진들은 광학적 특성들이 우수하다. 렌즈에서 발생하는 각종 광학적 왜곡들이 덜 발생하고, 더 선명한 이미지를 얻을 수 있다. 또 렌즈를 어떻게 설계하는지에 따라 사진에 담을수 있는 화각이 결정된다. 일반적으로 광각 렌즈라고 불리는 렌즈는 더 넓은 화각을 담을 수 있지만 넓은 화각을 담는 만큼 한 물체를 집중적으로 촬영하는 능력을 떨어진다. 반대로 망원 렌즈라고 불리는 렌즈는 좁은 화각을 담아내지만 그 덕분에 멀리 있는 물체를 집중적으로 촬영하는 등의 경우에 광각렌즈에 비해 유리하다. 렌즈 시스템은 사진 품질에 영향을 주는 첫 번째 요소이다.

 

다시 기록 매체로 돌아와서, 은판이나 필름의 경우 빛에 반응하는 화학물질을 이용해 빛 정보를 기록한다. 일정 시간동안 필름에 상이 맺히게 하면 빛에 많이 노출된 부분의 화학물질은 더 많이 반응할 것이고 반대로 빛에 적게 노출된 부분의 물질은 덜 반응할 것이다. 결과적으로 빛과 많이 반응한 부분을 밝게, 빛과 적게 반응한 부분을 어둡게 표현하면, 짠. 흑백 사진을 얻을 수 있다. 컬러 사진의 경우 좀 더 복잡하다. 하지만 크게 어려울 건 없다. 단순히 빛에 반응하는 물질이 아니라 특정 파장대의 빛에 반응하는 물질 여러 종류를 겹쳐 사용하면 되기 때문이다. 이를 각각 현상해서 합치는 좀 복잡한 과정이 필요하긴 하지만 더 생생한 컬러 사진을 얻을 수 있는데 그게 무슨 대수인가.

 

사진 : Webvision(링크)

 

그러나 기본적으로 촬영면 그 자체가 기록 매체인 경우에는 사진 한 장에 필름 한 장을 사용해야 한다는 단점이 있다. 즉, 정지화면이 아닌 움직이는 영상을 담기 위해서는 초당 수십장의 필름을 사용해야 한다. 하지만 우리 눈을 떠올려 보자. 우리 눈은 움직이는 영상을 보고 있다. 그것도 매우 부드럽게. 하지만 우리 눈이 움직이는 영상을 보기 위해 초당 수십장의 망막을 갈아치우지 않는다. 실제로 우리 눈은 망막 하나로 움직이는 영상을 볼 수 있다. 이는 우리 망막에서 ‘필름’ 역할을 하는 간상세포와 원추세포가 감지한 빛을 전기적인 신경 신호로 바꾸고, 이 신호를 연속적으로 처리할 수 있기 때문이다. 빛을 수용하는 매체와 얻어진 정보가 분리되면서 얻을 수 있는 장점이라 할 수 있겠다. 디지털 카메라 역시 이와 같은 원리로 동작한다.

 

사진 : Wikipedia 'Image seneor' 문서

 

디지털 카메라에는 우리 눈의 망막에 해당하는 이미지 센서가 있다. 이 이미지 센서는 들어오는 빛의 양을 전기 신호로 전환할 수 있는 개별 소자들을 가지고 있다. 수많은 소자들이 센서 위에 배열되어 있고, 이 이미지 센서에 렌즈를 통과한 상을 맺어주면 각 소자들은 자기에게 들어온 빛의 양을 전기 신호로 변환시켜 내보낸다. 이 신호들을 종합해서 하나의 이미지로 합성하면, 디지털 사진이 완성된다. 우리는 이런 각 소자들을 ‘화소’라고 하는데 카메라의 스펙에 흔히 표기되는 그 화소이다. 어떤 카메라가 1200만 화소라는 얘기는 그 카메라의 이미지 센서에 이런 소자가 1200만개 들어가있다는 이야기이다. 

 

사진 : Wikipedia 'LCD Television' 문서

 

다만 일부 펜타일 패턴의 디스플레이를 제외한 디스플레이는 한 화소가 삼원색을 모두 담고있다. 하지만 일반적인 카메라의 한 화소는 R, G, B 중 한 개의 색만을 감지할 수 있다. 이는 일종의 트레이드 오프인데, 디스플레이처럼 한 화소에 세 가지 색을 인지할 수 있는 소자 세 개를 구겨넣어 이미지 센서를 만들게 되면 같은 면적에 투입할 수 있는 화소의 갯수가 적어지기 때문이다. 예를 들어 어떤 센서 제조사가 1인치 이미지 센서에 100만개의 소자를 투입할 수 있는 기술력을 가지고 있다면 한 화소가 하나의 색만을 인지하는 방식으로 만들게 되면 100만개의 화소를 사용할 수 있지만, 한 개 화소에 세 가지 색을 인지하는 소자를 투입한다면 33만개의 화소밖에 확보할 수 없을 것이다. 각 화소가 한 가지 색만 인지할 수 있는 경우라도 각 화소의 색은 그 화소 주변의 다른 소자가 검출한 색 데이터를 보간해서 사용하기 때문에 최종적으로는 각 화소마다 모두 R, G, B 데이터를 가진 사진을 얻을 수 있다.

 

사진 : Wikipedia 'Bayer filter' 문서 중

 

여기에 더해 디스플레이와 달리 대부분 카메라의 색 화소 배열은 R, G, B 삼원색의 1:1:1 배열이 아니다. 일반적으로 카메라의 센서 배열은 R, G, B 화소가 1:2:1의 비율로 배치되는데 이를 베이어 패턴이라고 한다. 우리 눈은 주로 녹색 계열의 빛으로 명도를 확인하고 나머지 빛과의 조합으로 색을 결정한다. 따라서 우리가 봤을 때 자연스러운 명도 구현이 되려면 녹색 데이터를 중점적으로 획득할 필요가 있다(링크). 베이어 패턴의 형식으로 R, G, B를 받아들이는 소자의 비율을 1:2:1로 배치하면 보간 방식으로 만들어진 이미지임에도 불구하고 우리 눈은 이를 자연스럽게 받아들일 수 있다. 물론 베이어가 이 패턴을 발명한 후 많은 추가 연구가 이루어졌고 현재는 녹색을 중점적으로 받아들인다는 대전제 하에서 이미지 센서 제조사마다 다양한 패턴으로 화소를 배치하고 있다.

 

사진 : Electronics Division

 

너무 당연한 이야기지만 이미지 센서의 성능이 향상되면 사진의 품질이 좋아진다. 이미지 센서의 성능을 향상시키는 데는 여러 가지 방법이 있는데 품질을 향상시키기 위한 대부분의 시도는 각 화소의 신호대 잡음비(SNR)를 올리는 데 집중된다. 화소 위에 마이크로렌즈를 설치해 더 많은 빛을 받아들이는 방법이나 센서의 크기를 키워 더 많은 빛을 받는 방법이나 이면조사형 센서를 사용해 더 많은 빛을 받는 방법은 신호의 강도를 높임으로써 신호 대 잡음비를 올릴 수 있으며, 화소간의 구분을 확실히 함으로써 누화 현상을 줄이는 등의 노력은 잡음의 강도를 낮춤으로써 신호대 잡음비를 올리는 방법이다. 신호 대 잡음비가 높아지면 사진 상에서 나타나는 노이즈가 줄어들고, 더 적은 양의 빛만으로도 선명하고 정확한 색을 표현해주는 사진을 찍을 수 있다.

 

다시 본론으로 돌아가서, 디지털 카메라는 렌즈를 통해 이미지 센서에 상을 맺고, 이미지 센서의 각 화소가 받은 빛의 양을 전기신호로 변환해 데이터로 변환시킨다. 위에서 설명한 것처럼 이 데이터는 화소의 정보를 모두 담고있지는 않다. 이 데이터를 보간해 각 화소별로 R, G, B 값을 정하는 등의 연산을 해야 실제로 우리가 보는 디지털 사진 파일이 탄생한다. 이 과정을 중점적으로 수행하는 하드웨어를 우리는 ISP라고 부른다. 현대 디지털 카메라의 ISP는 단순히 색 보간 작업만을 수행하는 게 아니라 얻어진 사진이 보기 좋도록 매우 많은 후보정을 하는데 이 ISP의 알고리즘, 성능 등이 완전히 똑같은 데이터로부터 다른 사진을 만들어낼 수 있기 때문에 ISP의 기능 역시 최종 사진 품질에 큰 영향을 주는 요소이다.

 

정리하자면 현대 디지털 카메라의 품질에 큰 영향을 주는 요소는 광학 시스템, 이미지 센서, 이미지 시그널 프로세서와 이를 뒷받침하는 소프트웨어 정도로 정리될 수 있을 것이다. 아이폰 7 자세히 알아보기 카메라편에서는 이런 관점으로 아이폰 7 시리즈의 카메라를 살펴볼 것이다. 가장 먼저 광학 시스템에 대해 알아보자.

 

개선된 광학 시스템 : 메인 카메라

 

사진 : Versatile School of Photography의 'Aperture' 문서 중

 

이번 아이폰 7 시리즈 메인 카메라가 전세대에 비해 가지는 가장 큰 차이점은 더 나아진 광학계이다. 가장 먼저 조리개의 크기와 초점거리가 변했다. 조리개는 렌즈 시스템으로 들어오는 빛의 양을 조절하는 장치로, 눈의 홍채와 비슷한 역할을 한다. 홍채는 어두운 곳에서 수축함으로써 동공의 크기를 확장시켜 눈으로 들어가는 빛의 양을 늘리고 반대로 밝은 곳에서 이완되어 동공의 크기를 축소시켜 눈으로 들어가는 빛의 양을 줄인다. 조리개 역시 열려있는 부분의 면적이 커질수록 더 많은 양의 빛을 렌즈 시스템으로 유입시킨다. 초점거리 역시 광학 시스템에서 중요한 요소인데, 렌즈 시스템의 중심(제 2주점)으로부터 초점까지의 거리를 말한다. 그리고 이 초점에 이미지 센서가 위치하기 때문에 이미지 센서까지의 거리로 봐도 무방하다. 여기에 대한 좀 더 자세한 내용은 다음 파트에서 다루기로 하고, 여기서는 초점거리 역시 광학계에서 중요한 요소라는 것 정도만 이해하자.

 


게다가 카메라의 조리개의 경우 단순히 통과하는 빛의 양만을 결정하는 게 아니라 사진의 심도 역시 결정한다. 같은 조건의 촬영기기에서 조리개를 열면 열수록 사진의 심도가 얕아지게 되고 초점이 맞은 피사체를 제외한 부분의 초점이 날아간 사진을 찍을 수 있게 되는 것이다. 반대로 조리개를 조일수록 심도는 깊어지고 사진 전체적으로 초점이 맞은 사진을 찍기에 좋다. 여기에 대한 좀 더 자세한 설명은 글의 후반부에 덧붙이겠다. 일반적으로 큰 렌즈를 장착한 카메라의 경우 이 조리개값을 사진사가 조절함으로써 원하는 분위기의 사진을 찍을 수 있다. 하지만 스마트폰의 경우 렌즈 시스템의 크기, 특히 두께가 매우 제한되어 있는 관계로 가변 조리개는 채택하기 어렵기에 고정 조리개가 채택된다. 무조건 열려있는 조리개의 면적이 클수록 좋은 것은 아니지만 이 수치가 고정되어 있는 경우 조리개를 넓게 잡았을 때 얻을 수 있는 이익이 더 크다.

 

아이폰 7 카메라는 아이폰 6s에 비해 더 짧은 초점거리와 더 커진 조리개 직경을 가지고 있다. 흔히들 조리개값이라고 부르는 값은 초점거리를 렌즈의 바깥에서 보이는 조리개 지름으로 나눈 값을 의미하는데, 초점거리가 짧아질수록, 그리고 조리개의 직경이 커질수록 작아지게 된다. 이 값이 작아진다는 것은 이미지 센서에 도달하는 빛의 양이 많아진다는 것을 의미한다. 아이폰 6s의 경우 f/2.2에 해당하는 조리개값을 가지고 있었는데 아이폰 7의 경우 이 값이 f/1.8로 낮아졌다. 이는 조리개가 렌즈 시스템에 더 많은 빛을 전달한다는 의미이다. 아이폰 7의 광학 시스템은 아이폰 6s의 카메라보다 50% 더 많은 빛을 받아들일 수 있고, 이는 신호의 세기를 강화시켜 신호대 잡음비를 증가시킴으로써 더 나은 품질의 사진을 찍을 수 있게 해 준다. 초점거리가 조금 짧아지긴 했지만, 조리개의 직경이 더 큰 폭으로 넓어짐으로써 더 심도가 얕은 사진을 찍을 수 있게 되었다는 장점도 있다.

 

사진 : 애플

 

조리개 값이 작아진 것과 동시에 렌즈 시스템 역시 개선되었다. 현대 카메라 렌즈 시스템은 대부분 여러 장의 렌즈로 구성된다. 한 장의 렌즈로는 초점 거리 등에서 원하는 결과를 얻을 수 없기 때문이다. 렌즈 시스템을 설계하는 것은 매우 섬세한 일이다. 렌즈의 굴절 때문에 발생하는 왜곡 등의 문제를 최대한 억제하면서 선명한 상을 얻을 수 있도록 렌즈를 설계하는 것은 어렵다. 그렇기 때문에 렌즈 시스템의 경우 제조사가 상세한 정보를 제공하지 않으면 그 시스템이 어떤 식으로 구성되었는지를 알기 어렵다. 다만 사용자들은 사진의 품질을 보면서 렌즈 시스템에 어떤 식으로 변화가 있었는지를 추측해볼 따름이다. 애플이 우리에게 준 정보는 기존에는 5매의 렌즈가 사용되었는데, 아이폰 7 시리즈에는 한 장의 렌즈가 추가로 들어갔다는 것뿐이다. 물론 무조건 렌즈의 매수가 많다고 훌륭한 렌즈 시스템인것은 아니지만 보통은 렌즈를 추가해 광학적인 특성을 개선하기에 애플 역시 그랬으리라 추측할 따름이다. 더 많은 빛을 받아들일 수 있게 설계된 조리개와 개선된 렌즈 시스템은 분명히 더 좋은 사진을 찍을 수 있게 해 줄 것이다. 실제로 아이폰 7 시리즈의 카메라는 센서 크기와 집적된 화소의 갯수가 지난 세대와 동일하기 때문에 올라간 사진 품질의 상당 부분은 개선된 광학 시스템의 덕을 봤을 것이다.

 

영상 : 애플

 

여기에 더해 이제는 4.7인치 아이폰에도 광학 손떨림 방지(OIS) 기능이 투입된다. 기존에는 플러스 모델에만 장착되어 있던 기능인데, 아이폰 전 모델로 확장되었다는 것에 의의를 둘 수 있겠다. 사실 빛이 충분한 상황에서 광학 손떨림 방지는 큰 의미가 없다. 빛이 충분한 상황에서는 짧은 시간동안 빛을 받더라도 충분한 수준의 신호대 잡음비를 확보할 수 있기 때문이다. 이 기능은 빛이 부족한 환경에서 빛을 발한다. 빛이 부족한 환경은 신호대 잡음비가 떨어지는 상황을 의미한다. 즉, 아무런 조치를 취하지 않는다면 조악한 품질의 사진이 나올 것이 분명하다.

 

이런 환경에서 카메라가 선택할 수 있는 방법은 여러 가지가 있다. 먼저 조리개를 최대한 열어 많은 양의 빛을 받는 것이 한 가지 선택지가 될 수 있다. 하지만 스마트폰의 경우 조리개를 별도로 조절할 수 없기 때문에 이 선택지는 선택할 수 없다. 그 다음 선택지는 노출 시간을 늘리는 것이다. 더 긴 시간동안 빛을 받으면 당연히 더 많은 양의 빛을 받을 수 있다. 다만 여기에는 몇 가지 문제가 있다. 첫 번째 문제는 주변이 어두운 가운데 특별히 밝은 물체가 있는 경우에 발생한다. 이런 경우에는 어두운 부분에 맞춰 많은 빛을 받기 위해 노출시간을 늘려버리면 밝은 부분에 너무 과도한 빛이 들어오게 되어서 밝은 부분이 날아가버리는 현상이 생길 수 있다. 두 번째 문제는 오랜 시간 빛을 받을 때 카메라를 쥐고 있는 손이 흔들린다면 사진 전체가 흔들려버리게 된다는 것이다. 이 두 가지 문제때문에 어두운 환경에서도 무작정 노출시간을 늘리는 것은 힘들다.

 

iPhone 7 Plus / ISO 100 / 메인 카메라 / 1/15

 

마지막 선택지는 촬상 소자들의 감도를 조절하는 것이다. 감도는 흔히 ISO 값으로 표시되는데 이 값이 높을수록 소자들이 더 적은 양의 빛에도 반응하게 된다. 하지만 빛이 부족하다고 무턱대고 감도를 높이면 촬상 소자가 더 민감해지고, 원하는 빛 외의 요소들을 오인할 가능성 역시 높아진다. 그 결과 사진에 자글자글한 노이즈가 발생하게 되는 것이다. 광학 손떨림 방지 기능은 이 중에서 두 번째 문제를 일부 해결해줄 수 있다. 이 기능이 켜져있을 경우 카메라 모듈은 스마트폰 움직임의 반대 방향으로 이동해서 흔들림을 최소화시킨다. 이 경우 좀 더 긴 노출시간을 주더라도 손떨림에 의한 사진 흔들림을 최소화할 수 있게 된다. 노출 시간 자체를 늘리는 것이기 때문에 이미지 센서에 도달하는 빛의 양이 늘어나고 신호대 잡음비를 높여줌으로써 더 좋은 사진을 찍을 수 있다.

 

사진 : 소니블로그

 

하지만 위에서 설명한 것처럼 광학 손떨림 방지 기능이 만능은 아니다. 광학 손떨림 방지 기능이 해결해줄 수 있는 것은 오직 손떨림으로 인한 흔들림 뿐이다. 피사체가 움직이는 경우 노출 시간이 길어지기 때문에 피사체가 더 흐리게 찍힐 것이다. 또 노출시간을 늘렸을 때 발생하는 첫 번째 문제인 밝은 부분이 날아가버리는 문제 역시 해결해줄 수 없다. 다만 이런 것들은 소프트웨어적으로 가장 적절한 노출을 찾아서 완화시킬 수 있는 문제이기에 광학 손떨림 방지 기능이 어두운 곳에서 평균적인 사진 품질을 올려준다는 것은 사실이다.

 

사진 : 아난드텍 아이폰 7 리뷰 중. 위 사진은 아이폰 6s Plus의 저조도 사진, 아래 사진은 아이폰 7 Plus의 저조도 사진

 

정리하자면 아이폰 7은 기존의 아이폰에 비해 더 큰 지름을 가진 조리개를 사용했고, 덕분에 더 많은 빛을 받아들일 수 있게 되었다. 또 추가적인 렌즈가 투입되면서 광학적 특성이 나아졌을 것으로 보인다. 이런 변화들은 특히 빛이 부족한 저조도 환경에서의 사진 품질을 높이는 데 기여했다. 실제로 아이폰 6s 플러스와 7 플러스로 저조도 환경에서 촬영한 사진을 보면 아이폰 7이 꾸준히 더 낮은 감도로 사진을 촬영하고, 노이즈를 더 잘 억제시키는 것을 확인할 수 있다.

 

지금까지 아이폰 7 시리즈 메인 카메라의 광학 시스템을 살펴봤는데, 아이폰 7 시리즈의 카메라 광학 시스템을 논하면서 아이폰 7 플러스에 추가된 망원 카메라를 빼놓을 수는 없을 것이다. 아이폰 7 플러스의 망원 카메라를 추가한 애플의 의도는 무엇일까? 지금부터 알아보자.

 

카메라 교체식 카메라 : 추가된 망원 카메라

 

사진 : 애플

 

일반적으로 하나의 렌즈 시스템에서 넓은 범위의 화각을 동시에 처리하도록 설계하는 것은 매우 어렵다. 물론 렌즈 경통의 길이가 변하면서 렌즈간의 거리가 변할 수 있는 경우라면 어느 정도 범위의 화각을 한 렌즈 시스템에 넣을 수 있지만 렌즈 시스템의 크기가 제한되어 있을 때는 초점거리를 바꾸는 기능을 포기함으로써 더 좋은 품질의 렌즈 시스템을 설계할 수 있다. 특히 스마트폰에 투입될 렌즈 시스템은 엄청난 공간 제약에 시달리면서도 훌륭한 수준의 사진을 만들어 내야한다. 당연히 초점거리를 바꾸는 기능을 포기할 수밖에 없다. 위에서도 언급한 것과 같이 초점거리는 제 2주점에서 이미지 센서까지의 거리를 말하는데, 초점거리는 화각과 밀접한 관계를 가지고 있기에 화각에 대한 본격적인 이야기를 하기 전에 초점거리에 대해 이해할 필요가 있다.

 

사진 : pierretoscani.com

 

아까부터 초점거리를 제 2주점부터 이미지 센서까지의 거리라고 말했는데, 제 2주점은 간단히 말해 렌즈 시스템의 광학적 중심을 의미한다. 렌즈가 하나 있을 때는 그 렌즈의 중심이 당연히 전체 렌즈 시스템의 중심이 된다. 하지만 위에서도 언급한 것과 같이 카메라의 렌즈 시스템은 보통 여러 매의 렌즈로 구성된다. 아이폰 7 시리즈의 메인 카메라만 하더라도 6매의 렌즈가 하나의 렌즈 시스템을 구성하고 있다. 물론 물리적으로는 여섯 개의 렌즈가 존재하지만, 최종적으로 이미지 센서에 맺히는 상은 딱 하나다. 즉, 이 상을 맺어주는 가상의 렌즈가 존재한다고 생각했을 때 이 렌즈의 중심이 바로 제 2주점이다.

 

원본 사진 : 애플

 

제 2주점을 찾는 방법은 간단하다. 매우 먼 거리에서 들어오는 빛은 렌즈에 평행하게 들어온다. 태양빛이 지구에 평행하게 들어오듯이 말이다. 이렇게 렌즈에 평행하게 들어온 빛이 렌즈 시스템을 통과해 최종적으로 빠져나가는 광선 각도의 연장선과 들어온 광선의 연장선이 만나는 지점이 렌즈 시스템을 하나의 가상 렌즈로 나타냈을 때의 렌즈 위치가 되고, 이 렌즈의 중심이 바로 렌즈 시스템의 광학 중심인 제 2주점이 된다. 이 때 이 제 2주점으로부터 초점면까지의 직선 거리가 바로 그 렌즈 시스템의 초점거리가 된다. 지금부터는 렌즈 시스템을 제 2주점을 중심으로 하는 하나의 가상의 렌즈로 대체해서 나머지 개념들을 설명하겠다.

 

사진 : eo Edmund

 

먼저 초점거리와 화각 간의 관계를 살펴보자. 기본적으로 이미지 센서의 크기가 같은 상황에서 살펴보자. 렌즈 시스템의 중심인 가상 렌즈가 이미지 센서와 가까운 경우에는 짧은 초점거리를 가지는 것이고, 가상 렌즈가 이미지 센서와 먼 경우에는 긴 초점거리를 가지는 것이다. 이미지 센서와 가상 렌즈가 가까운, 즉 초점거리가 짧은 상황을 먼저 살펴보자. 렌즈의 중심, 즉 제 2주점을 통과하는 광선은 렌즈 시스템 전체적으로 봤을 때 굴절되지 않는다. 즉, 센서의 가장자리와 제 2주점을 연결한 선과 평행하게 들어오는 광선이 이 카메라가 잡아낼 수 있는 최대 화각이다. 이제 이 가상의 렌즈가 이미지 센서에서 멀어진 상황을 가정해보자. 즉, 초점거리가 길어진 것이다. 역시 아까와 동일하게 제 2주점과 이미지 센서의 가장자리를 연결함으로써 이 카메라의 화각을 얻어낼 수 있다. 척 보면 알겠지만 아까보다 화각이 좁아진 것을 확인할 수 있다. 즉 센서 크기가 같을 경우 초점거리가 짧을수록 더 넓은 풍경을 담아낼 수 있고, 초점거리가 길어질수록 더 좁은 풍경을 담아낼 수 있다.

 


하지만 화각에 영향을 주는 요인에 초점거리만 있는 것은 아니다. 화각에 영향을 주는 두 번째 요소는 바로 센서 크기이다. 이번에는 위와 다르게 초점거리를 고정시킨 상태에서 센서의 크기를 바꿔봄으로써 이를 손쉽게 이해할 수 있다. 센서의 크기가 커지면, 센서의 가장자리가 바뀌고 센서의 가장자리와 제 2주점 사이의 선을 새로 그려넣어야 한다. 한눈에 확인할 수 있듯이 동일한 초점거리에서 센서의 크기가 커졌을 때 화각이 넓어짐을 확인할 수 있다. 즉 우리가 임의의 카메라 시스템의 화각을 알기 위해서는 초점거리와 이미지 센서의 면적에 대한 정보가 모두 필요하다. 정리하자면, 센서가 커지면 커질수록, 초점거리가 짧아지면 짧아질수록 사진에 담을 수 있는 화각이 넓어진다.

 

즉, 화각을 이야기할 때 감안해야 하는 요소는 센서 크기와 초점거리 두 가지이다. 하지만 매번 화각을 알고싶을 때마다 이 두 가지 요소를 가지고 화각을 계산하는 건 그리 내키지 않는다. 그래서 카메라 업계에는 예전부터 널리 쓰이던 35mm 필름 크기를 기준으로 초점거리를 환산해서 표기한다. 화각을 이야기하고 싶을 때 감안해야 하는 두 요소 중 하나인 센서 크기가 35mm 필름의 촬상면으로 통일되었기 때문에, 이제 우리는 초점거리만 가지고도 화각을 나타낼 수 있다. 이 때의 화각을 환산화각이라고 부르며, 초점거리로만 그 화각을 표시한다. 환산 화각을 구하는 공식은 단순한 비례식이다. 원하는 이미지 센서의 대각선 길이와 35mm 필름의 촬상면 대각선 길이의 비를 초점거리에 곱해주기만 하면 된다.

 


아이폰 6s 플러스의 iSight 카메라는 대략 가로길이 4.8mm, 세로길이 3.6mm의 센서를 탑재하고 있고 이를 통해 센서의 대각선 길이가 6mm 정도임을 확인할 수 있다. 기준이 되는 35mm 필름의 촬상면은 가로길이가 36mm, 세로길이가 24mm로 대략 43mm 정도의 대각선 길이를 가지고 있다. 아이폰 6s 플러스 센서의 대각선 길이와의 비율은 대략 7.17정도이다. 이 값을 아이폰 6s 플러스 카메라의 초점길이인 4.15mm에 곱해주면 29.8mm 정도의 값이 나오고, 이것이 바로 아이폰 6s 카메라의 환산 화각이다. 아이폰 7 시리즈의 메인 카메라는 대략 4mm 정도의 초점거리를 가지고, 센서 크기는 같기 때문에 대략 28.6mm 정도의 환산 화각을 가진다. 아이폰 6s 플러스보다 조금 더 넓은 화각을 가지는 것이다.

 

위에서 언급한 것과 같이 스마트폰 카메라의 경우 렌즈 시스템을 이동시킴으로써 초점거리를 바꾸는 것은 불가능하다. 게다가 DSLR 처럼 렌즈를 교체하는 게 불가능한것은 물론이다. 위에서도 언급했듯이 인간의 눈이 보는 것과 유사한 장면을 담아내는 렌즈 시스템을 ‘표준 렌즈’라고 부르는데, 이런 렌즈들의 환산 화각은 대략 50mm 근처이다. 하지만 스마트폰은 단 하나의 렌즈로 대부분의 상황에 대처해야 하기 때문에 표준렌즈보다도 좀 더 광각의 장면을 담는다. 단 하나의 초점거리만 선택할 수 있을 때 좀 더 넓은 화각을 잡아낼 수 있는 초점거리를 선택하는 이유는 분명하다. 광각 렌즈로 찍은 사진은 화질면에서 손해를 보는 걸 감수한다면 사진의 일부를 크롭해서 좁은 화각의 사진을 얻어낼 수 있지만, 좁은 화각의 카메라에서 찍힌 사진 바깥의 정보를 살려낼 방법은 없기 때문이다.

 

하지만 화질면에서 큰 손해를 보지 않고 다른 화각의 사진을 얻고 싶다면 어떻게 해야 할까. DSLR이라면 간단히 그에 맞는 초점거리를 가진 렌즈 시스템을 끼워버리면 그만이지만, 위에서 언급한 것처럼 스마트폰에서 이런 접근은 불가능하다. 기본적으로 장착된 렌즈 위에 추가적인 렌즈를 달아서 비슷한 효과를 낼 순 있겠지만, 이 경우 추가 렌즈를 맞물리게 하기 위해 추가적인 부품이 달려야 하고, 이 부품은 가뜩이나 보기 싫은 카툭튀를 더 심하게 만들것이다. 게다가 매우 작은 카메라 렌즈를 관리하는 것도 어려울 뿐 아니라 사진을 찍을 때마다 탈착해야한다는 것은 사용자 경험 면에서 재앙에 가깝다.

 

사진 : LG전자, G5에 탑재된 광각 카메라로 찍은 사진

 

제조사들은 이런 상황에 대한 해답을 어느 정도 찾아냈다. 바로 서로 다른 화각의 렌즈 시스템을 가진 카메라를 하나 더 추가하는 것이다. 이 경우 소프트웨어적으로 두 카메라를 전환할 수 있으며, 사용자 경험 면에서 렌즈를 교환하게 만드는 것보다 훨씬 나은 선택지를 제공할 수 있다. 이제 제조사가 선택할 사항은 간단하다. 원래 카메라보다 더 넓은 영역을 잡을 수 있는 광각 카메라를 추가할 것인가, 아니면 원래 카메라보다 더 좁은 영역을 세밀하게 담을 수 있는 망원 카메라를 추가할 것인가. 여러분들도 잘 아시다시피 LG와 애플의 선택은 달랐다. LG는 더 광각의 카메라를 추가하는 것을 선택했고, 애플은 더 망원을 잡아낼 수 있는 카메라 모듈을 추가했다. 물론 어느 회사가 맞고 틀린 건 아니다. 다만 양 쪽 회사가 사람들이 스마트폰으로 어떤 사진을 찍고싶어하는지에 대해서 다른 생각을 갖고있는 것 뿐이다.

 

 

애플은 이미 어느 정도 광각을 가지고 있는 메인 카메라보다 더 광각의 카메라를 넣기보다는 메인 카메라에 비해 2배 망원인 카메라를 투입하는 것을 선택했다. 사실 아이폰 7 시리즈의 메인 카메라의 환산 화각인 28mm의 두 배라고 해 봐야 56mm의 환산화각을 가진 것인데, 사실 이 정도 화각은 우리 눈이 보는 것과 비슷한 화각을 잡아낸다는 의미에서 망원렌즈라기보단 표준렌즈라고 불린다. 다만 스마트폰의 경우 대부분 광각 카메라를 탑재하고 있고, 이에 비해 망원이라는 의미에서 애플은 이 카메라를 망원 카메라라고 부르는 것이다. 즉, 아이폰 7 플러스에 망원 카메라가 탑재되었다고 해서 엄청나게 먼 거리에 있는 물체를 생생히 찍을 수 있는 능력을 기대하면 실망하게 될 것이다.

 


게다가 아이폰 7 플러스에 탑재된 망원 카메라는 기술적인 한계로 인해 광학 성능이 기본 카메라에 비해 떨어진다. 위에서 설명한 것처럼 망원 카메라에 메인 카메라와 같은 크기의 센서를 투입하면, 초점거리가 두 배 길어져야 한다. 하지만 아이폰 7 플러스의 디자인상 초점거리를 두 배 늘리기 위해 망원 카메라가 ‘더툭튀’가 되게 만들 순 없었을 것이다. 즉, 망원 카메라의 허용 두께가 메인 카메라와 비슷한 수준으로 제한되어 있기 때문에 애플은 한정된 두께에서 두 배 망원을 구현하기 위해 센서의 크기를 줄이는 방법을 선택했다. 센서의 크기를 줄이면 더 짧은 초점거리로도 더 좁은 화각을 만들어낼 수 있다. 실제로 아이폰 7 플러스의 망원 카메라는 메인 카메라 초점거리의 두 배인 8mm가 아니라 6.6mm 정도의 초점거리로 56mm 환산 화각을 구현해냈다. 이에 따라 아이폰 7 플러스의 망원 카메라 이미지 센서의 대각선 길이는 5mm 정도로 메인 카메라의 이미지 센서보다 40%정도 적은 면적을 가지고 있다. 아이폰 7 플러스의 두 카메라는 같은 화소수를 가지고 있는데, 당연히 센서의 크기가 작아지면 개별 화소의 크기 역시 작아진다. 이는 개별 화소가 받는 빛의 양이 떨어진다는 것을 의미하고, 신호대 잡음비가 떨어진다는 사실을 의미한다.

 

조리개값 역시 f/2.8로 메인 카메라의 f/1.8에 비해 어두워졌는데, 이 역시 한정된 크기 제한 때문이다. 조리개값은 위에서 설명한 것과 같이 초점거리를 외부에서 바라본 조리개의 지름으로 나눈 값인데, 초점거리가 1.65배가 증가한 가운데, 조리개값은 1.55배가 증가했다. 오히려 망원 카메라의 조리개 지름이 메인 카메라의 조리개 지름보다 조금 더 크다는 의미이다. 무작정 조리개의 크기를 늘리게 되면, 그 빛을 이용해야 하는 렌즈 시스템의 크기가 커지게 되기에 이 역시 선택할 수 없는 옵션이다. 즉, 망원 카메라를 추가 카메라로 선택한 이상 망원 카메라의 광학 품질이 메인 카메라보다 떨어질 수밖에 없는 것은 어찌보면 당연한 것이다. 여기에 아이폰 7 플러스의 망원 카메라는 메인 카메라의 광학 손떨림 방지 모듈과의 간섭 문제로 광학 손떨림 방지기능마저 탑재하지 못하고 있다.

 

iPhone 7 Plus / ISO 1000 / 망원 카메라 / 1/60 ; 위의 지방이 사진과 비교해서 셔터스피드는 빨라지고 감도가 올라가 훨씬 노이즈가 많은 사진이 탄생했다.

 

어두운 조리개값, 작아진 센서 크기는 카메라 시스템이 잡아낼 수 있는 빛의 양을 줄여버리기 때문에 신호 대 잡음비를 줄인다. 밝은 실외에서는 카메라 시스템으로 유입되는 빛의 양이 많기 때문에 망원 카메라가 만들어내는 사진의 품질에 큰 문제가 없다. 하지만 빛이 부족한 환경이 되면 망원 카메라의 한계가 드러나게 된다. 위에서 설명한 것처럼 빛이 부족해지면 신호대 잡음비가 작아지게 되고 이는 사진 품질을 떨어뜨리게 된다. 카메라는 빛이 부족한 상황에서 미세한 빛도 잡아낼 수 있도록 하기 위해 촬상 소자들의 민감도를 올리게 되고, 노이즈가 자글자글하게 생긴 사진이 탄생한다. 게다가 아이폰 7 플러스의 망원 카메라는 광학 손떨림 방지기능 역시 채택하지 못했기에 노출시간을 늘림으로써 많은 빛을 잡아내는 것 역시 여의치 않다.

 

다만 그럼에도 불구하고 대부분의 상황에서 메인 카메라의 소프트웨어 줌보다는 나은 품질을 보여주게 되는데, 이는 소프트웨어 줌의 작동 원리를 살펴보면 쉽게 이해할 수 있다. 기본 사진 앱의 소프트웨어 줌을 사용하면 실제로 배율에 맞는 화각의 사진을 얻을 수 있다. 초점거리가 고정되어 있는 카메라 시스템에서 더 좁은 화각의 사진을 얻는 방법은 위에서도 말했듯이 더 작은 이미지 센서를 사용하면 된다. 큰 이미지 센서를 사용하고 있는 카메라에서 이미지 센서의 일부만을 사용한다면 이미지 센서의 크기가 작아진 것과 동일한 효과를 가져올 수 있다. 실제로 소프트웨어 줌의 경우 사용자가 선택한 화각에 맞게 사용하는 이미지 센서의 영역을 줄여버린다. 다만, 최종 사진의 해상도 자체는 1200만 화소를 유지하고 있는데, 이는 보간을 통해 화소수를 올려버리기 때문이다. 

 

예를 들어 소프트웨어 2배 줌을 사용할 경우 전체 센서 면적의 50%에서 오는 정보만으로 사진을 구성하게 된다. 이렇게 하면 실제로 사용하는 센서의 대각선 길이가 반으로 줄어들게 되고, 35mm 필름의 대각선 길이와의 차이는 14에 가깝게 된다. 즉, 아까와 동일한 4mm의 초점거리에서 환산 56mm 화각의 사진을 얻을 수 있는 것이다. 이를 아이폰 7 플러스에 추가된 망원 카메라와 비교해보자. 먼저 소프트웨어적으로 구성된 56mm 화각의 카메라 시스템은 메인 카메라의 센서에 비해 50% 작은 면적의 센서와 대략 600만 화소를 가지고 보간하여 1200만 화소의 사진을 만들어내는 데 반해, 아이폰 7 플러스의 망원 카메라는 메인 카메라의 센서에 비해 40% 작은 면적의 센서와 1200만 화소를 통해 사진을 만들어내게 되므로 대부분의 상황에서 더 훌륭한 사진을 만들어낸다. 

 


아이폰 7 플러스에서 망원 카메라로 사진을 찍기 위해서는 촬영 화면에서 촬영 배율을 탭하면 된다. 기본적으로 1배율 카메라가 선택이 되어 있으며, 이 부분을 한 번 탭하면 2배율 카메라, 즉 망원 카메라로 카메라 시스템이 전환된다. 혹은 배율 부분을 탭 한 상태로 슬라이드하면 소수점 단위로 최대 10배까지 확대 배율을 정할 수 있다. 물론 소수점 단위의 배율과 두 배 이상의 배율은 소프트웨어 줌이 작동한 결과이다. 다만 두 배 이상의 배율의 경우도 망원 카메라에서 오는 신호를 기반으로 소프트웨어 줌이 작동하기 때문에 메인 카메라만 가지고 있는 아이폰 7의 소프트웨어 줌에 비해 더 나은 품질의 사진을 얻어낼 수 있다.

 

정리하자면 아이폰 7 플러스의 망원 카메라를 이용하면 당연히 더 먼 거리의 물체를 조금 더 선명하게 찍을 수 있다. 하지만 사실 아이폰 7 플러스의 망원 카메라의 추가는 멀리 있는 물체를 더 선명하게 찍는데 큰 의미가 있다기 보다는 표준 렌즈에 가까운 화각을 가진 카메라가 추가되었다는 것에 더 큰 의미가 있다. 카메라 시스템이 좀 더 다양한 화각을 제공한다는 것은, 사진을 찍는 사람에 따라 더 다양한 활용도를 가져올 수 있다는 것을 의미한다. 예를 들어 56mm 환산 화각의 카메라는 많은 경우에 있어 인물 사진을 찍는 데 28mm 화각의 망원 카메라에 비해 더 적합하다. 메인 카메라 하나만 존재하는 아이폰 7에서 56mm 화각의 사진을 얻기 위해서는 사진의 품질 저하를 감수해야 하지만, 망원 카메라를 추가한 아이폰 7 플러스는 더 좋은 품질의 사진을 얻을 수 있다. 애플은 한 발 더 나아가 이 카메라와 메인 카메라를 함께 사용한 기능인 인물 사진 모드도 선보였는데, 이는 일반 사용자들이 이 화각의 카메라를 좀 더 잘 쓸 수 있도록 만들어준다. 여기에 대해서는 아래 인물 사진 모드 설명 부분에서 좀 더 자세히 알아보도록 하자.

 

지금까지 아이폰 7 카메라 시스템의 광학 영역을 살펴보았다. 카메라 시스템의 성능에 영향을 주는 요소 중 하나를 살펴본 셈인데, 나머지 요소인 이미지 센서와 이미지 처리 프로세서에 대해서도 알아봐야 할 것이다. 먼저 이미지 센서의 성능에 초점을 맞춰보자.


그대로인 센서 크기, 더 넓어진 색영역

 

사진 : Wikipedia 'Image seneor' 문서

 

위에서도 말했듯, 이미지 센서는 빛을 전기 신호로 바꿔주는 디지털 필름이다. 즉 이미지 센서의 성능은 최종 영상물들의 품질에 큰 영향을 미치게 된다. 이미지 센서의 성능을 높이는 데는 여러 가지 방법이 있지만, 결국 목표는 신호 대 잡음비를 끌어올리는 것이다. 신호 대 잡음비를 올리면 개별 화소는 좀 더 정확한 색을 잡아낼 수 있으며, 개별 화소가 좀 더 정확한 색을 잡아내게 되면 사진의 품질이 올라가게 된다. 지금까지 이미지 센서의 신호 대 잡음비를 올리기 위해 다양한 시도가 있었는데, 그 중에서 가장 확실하고 간단한 방법은 바로 화소의 면적을 넓히는 것이다. 화소의 면적이 넓어지면 당연히 한 개의 화소에 들어오는 빛의 양이 늘어나게 되고, 이는 신호대 잡음비가 올라간다는 것을 의미한다. 

 

한정된 크기의 이미지 센서에서 화소 수를 높이면 좀 더 고해상도의 사진을 얻을 수는 있겠지만 사진의 품질이 떨어질 것이고, 화소의 면적을 넓힌다면 사진의 전반적인 품질은 향상되겠지만 집적된 화소의 갯수가 적어져서 낮은 해상도의 사진을 얻게 될 것이다. 즉, 이 두 가지 문제를 동시에 해결하는 가장 좋은 방법은 전체 이미지 센서의 크기를 키우는 것이다. 하지만 이미지 센서의 크기를 무작정 키울 수는 없다. 일반적으로 이미지 센서의 크기가 커지면 더 커진 이미지 센서에 상을 맺어줄 수 있는 렌즈 시스템의 크기가 더 커지게 된다. 특히 스마트폰처럼 휴대성이 중요시되는 기기에서는 무작정 센서의 크기를 키울 수 없기 때문에 적절한 센서의 크기와 적당한 화소 수를 찾아내는 것이 중요하다.

 

사진 : DXOMark 'iPhone 7 camera review' 중

 

아이폰은 다른 경쟁사의 플래그십 제품들에 비해 작은 센서 크기를 고수하기로 유명하다. 타사의 플래그십 제품들에 비해 아이폰의 사진 품질이 떨어지는 가장 근본적인 이유이기도 하다. 이는 애플 내부에서 디자인팀의 입김이 강하게 작용한 결과로 보인다. 일반적인 기술 회사들의 경우 기술팀이 원하는 것에 맞춰 디자인이 이루어지는 데 반해, 애플의 경우 디자인팀이 더 큰 힘을 가진 조직과 문화를 가지고 있다. 아이폰 6의 경우 특유의 후면 절연띠가 카메라가 들어갈 공간을 크게 제한시켰고, 이는 6s 역시 마찬가지였다. 아이폰 7의 경우 가로로 가로지르는 절연띠가 사라지면서 카메라가 들어갈 공간이 좀 더 여유로워지긴 했지만 여전히 충분히 크지는 않다. 결국 조리개가 더 커지고, 렌즈 시스템이 차지하는 부피가 더 커지긴 했지만 센서 크기 자체는 아이폰 6s와 동일한 1/3인치 센서를 탑재했다.

 

사진 : chipworks 'Apple iPhone 7 Teardown' 중

 

센서 크기가 바뀌지 않았고 집적된 화소 역시 1200만 화소로 동일하기 때문에 개별 화소의 크기 역시 동일하다. Chipworks의 분석에 따르면 센서 자체의 물리적 특징 역시 크게 변하지 않았다고 한다. 아이폰 7 시리즈의 메인 카메라는 소니의 2세대 Exmor RS 센서를 사용했고, 이는 전작인 아이폰 6s 시리즈와 동일한 것이다. 즉, 센서의 전기적인 특징은 전작에 비해 큰 발전이 없는 것으로 이번 아이폰 7 시리즈가 기존에 비해 나아진 사진 품질을 보여준다면, 이는 이미지 센서가 아니라 이미지 센서로 빛을 보내주는 렌즈 시스템, 이미지 센서의 신호를 처리하는 이미지 처리 프로세서 등의 향상에 힘입은 것이다.

 

사진 : 애플

 

즉, 이번에 이미지 센서 단위에서 가장 의미 있는 변화는 이미지 센서 자체의 물리적인 성질 변화는 아니다. 물론 애플은 이미지 센서가 60% 더 빨라지고, 30% 더 효율적으로 동작한다고 했지만, 근본적인 사진 품질에 큰 영향을 미치는 요소는 아니다. 이보다도 더 중요한 것은 이미지 센서가 더 넓어진 색영역을 잡아낼 수 있다는 것이다. 아이폰 7 시리즈의 디스플레이와 마찬가지로, 아이폰 7 시리즈의 카메라 시스템은 기존의 sRGB보다 더 넓어진 Display P3 색영역의 색을 잡아낼 수 있다. 현재 디지털 시스템이 표현할 수 있는 색영역은 인간이 구분할 수 있는 색영역에 비해 좁기 때문에, 더 넓은 색영역을 지원한다는 것은 더 생생한 이미지를 표현할 수 있다는 것을 의미한다. 더 넓은 색영역에 대한 좀 더 자세한 설명이 필요한 분은 아이폰 7 자세히 알아보기 : 디스플레이편을 읽어보시면 된다(링크).

 

디스플레이 편에서도 설명했지만, 아이폰 7 시리즈의 카메라 시스템이 Display P3 색영역을 잡아낼 수 있다는 것은 아이폰 7 시리즈의 전체적인 사용자 경험을 향상시킨다. 아이폰 7 시리즈는 sRGB보다 넓은 색영역을 지원하는 디스플레이를 탑재한 유일한 스마트폰도 아니고, 최초의 스마트폰도 아니다. 하지만 카메라 시스템까지 더 넓은 색영역을 잡아낼 수 있는 기기로 한정시킨다면 유일한 스마트폰이다. 사실 디스플레이가 더 넓은 색영역을 지원한다고 해도 이를 지원하는 소프트웨어와 컨텐츠가 없으면 소비자들은 디스플레이가 더 넓은 색영역을 표현함으로써 얻을 수 있는 장점을 누릴 수 없다. 그런 의미에서 아이폰 7 시리즈의 카메라 시스템이 더 넓은 색영역을 잡아낼 수 있다는 것은 상당히 큰 진전이라 할 수 있다.

 

다만 더 넓은 색영역을 잡아낼 수 있는 능력은 이미지 센서의 것만은 아니다. 이미지 센서가 더 넓은 색영역에 해당하는 스펙트럼을 감지하는 것은 물론이고 보내오는 색 정보를 어떻게 해석해서 사진으로 구성할지를 결정하는 이미지 처리 프로세서가 함께 협력해야지만 더 넓은 색영역의 사진을 만들어낼 수 있다. 실제로 아이폰 7 시리즈는 물론 이전 세대의 아이폰에 탑재된 이미지 센서 자체는 sRGB보다 넓은 색영역을 잡아낼 수 있는 능력이 있다. 다만, 이렇게 잡아낸 정보를 이미지 처리 프로세서가 sRGB 색영역의 이미지로 뽑아냈을 뿐이다. 하지만 아이폰 7 시리즈의 카메라 시스템은 sRGB 너머의 색을 잡아내고, 이를 실제로 Display P3 색영역의 사진으로 만들어내게 된다.

 

iPhone 7 Plus / ISO 100 / 메인 카메라 / 1/4

 

실제로 아이폰 7 시리즈에서 찍은 사진 중 붉은 색이나 오렌지색 계열의 물체가 찍힌 사진을 sRGB 색영역의 사진파일로 변환시킨 뒤 다시 사진 앱에서 불러와서 비교해보면 쉽게 그 차이를 알 수 있을 것이다. 이처럼 애플은 아이폰 7 시리즈에 더 넓은 색영역을 잡아낼 수 있는 카메라 시스템을 투입함으로써 아이폰 7 시리즈 사용자들이 더 넓은 색영역을 표현할 수 있는 디스플레이의 장점을 최대한 누릴 수 있도록 만들었다. 또, 아이패드 프로 9.7이나 2015년형 이후의 레티나 디스플레이 아이맥, 신형 맥북프로 등 역시 Display P3 색영역을 지원하는 다른 기기들을 같이 사용하는 사용자들의 경우 다른 기기에서도 더 넓은 색영역으로 볼 수 있는 컨텐츠가 늘어나는 효과를 누릴 수 있게 되었다.

 

정리하자면 아이폰 7은 이미지 센서의 관점에서는 거의 변화가 없었다고도 정리할 수 있을 것이다. 다만 이미지 센서와 이미지 처리 프로세서가 협력하여 더 넓은 색영역을 잡아낼 수 있게 된 것은 주목할만한 개선 사항이라 할 수 있겠다. 즉, 아이폰 7 시리즈 카메라의 성능 향상에서 이미지 센서가 차지하는 비중은 상당히 제한적이다. 그렇다면 이제 아이폰 7 시리즈 카메라 성능 향상에 기여한 또 다른 요소인 이미지 처리 프로세서에 대해 알아보자.

 

더 빨라진 이미지 처리 프로세서와 인공지능

 

사진 : 애플

 

이미지 처리 프로세서는 디지털 카메라 시스템에서 매우 핵심적인 부분이다. 가장 원시적인 이미지 처리 프로세서는 센서에서 오는 원시 데이터로부터 우리가 보는 사진을 형성하는 회로이다. 위에서도 언급한 것과 같이, 디지털 카메라의 이미지 센서는 한 화소가 한 가지 색만을 인지한다. 즉, 최종적으로 우리가 보는 사진을 만들어내기 위해서는 갖고있는 색 데이터를 가지고 개별 화소의 빨간색, 초록색, 파란색의 정도를 보간해야 한다. 1200만 화소에 기본적인 베이어 패턴을 가진 이미지 센서로 가정해보면 이 이미지 센서는 각 300만개의 빨간색과 파란색을 검출하는 화소, 600만개의 초록색을 검출하는 화소로 이루어져 있다. 즉, 화소마다 빨간색, 초록색, 파란색의 데이터를 모두 채워넣으려면 각 900만개의 빨간색 파란색 값과, 600만개의 초록색 값을 연산을 통해 구해내야 한다. 

 

사진 : Wikipedia 'Bayer filter' 문서 중

 

가장 간단하게 인접한 해당 화소의 색의 평균치를 연산하는 기법으로 보간하더라도 빨간색과 파란색 값을 채워넣기 위해서는 인접한 두 개 화소의 빨간색 값의 평균을 취해야 하고, 초록색 값을 채워넣기 위해서는 인접한 네 개 화소의 초록색 값의 평균을 취해야 한다. 두 값의 평균을 구하는 것이 덧셈 연산과 나눗셈 연산 한 번이 필요하고, 네 값의 평균을 구하는 데는 덧셈 연산 세 번과 나눗셈 연산 한 번이 필요하다. 즉, 한 개의 사진을 단순하게 보간하는 데만 총 6000만번의 연산이 필요한 것이다. 그리고 대부분은 베이어 패턴을 보간할 때 이보다 훨씬 복잡한 알고리즘을 사용한다. 이는 단순히 사진 하나를 구성하는 연산량만을 따진 것이고, 여러 장의 사진을 찍어 합성하는 등의 기술은 하나도 들어가지 않은 상태이다. 현대의 이미지 처리 프로세서들은 이보다 훨씬 복잡한 연산들을 수행한다.

 

사진 : 애플

 

실제로 아이폰의 이미지 처리 프로세서는 한 장의 사진을 찍을 때 피사체의 얼굴을 인식하고, 피사체와 주변 밝기 등을 감안하여 노출을 조절하고, 피사체에 자동으로 초점을 맞추고, 주변광에 따라 자동으로 화이트밸런스를 조절하며, 사진의 여러 부분을 개별적으로 판단하여 서로 다른 정도의 보정을 하는 로컬 톤 매핑 기능과, 노이즈 패턴을 찾아 노이즈를 잘 안 보이도록 처리해주는 노이즈 감쇄 기능과 여러 장의 사진을 한번에 찍어 최적의 부분들을 합성하는 등 엄청나게 많은 연산을 수행한다. 이런 연산들이 모두 들어간 한 장의 사진을 찍을 때 총 1000억번의 연산이 일어난다. 아이폰 7 시리즈의 어플리케이션 프로세서인 A10 Fusion의 프로세서는 최대 2.34GHz로 동작하는데 이는 1초에 23억 4천만회의 클럭 사이클이 돌아간다는 의미이다. A10 Fusion의 메인 프로세서는 한 사이클에 여러 명령어를 동시에 수행할 수 있는 슈퍼스칼라 기법이 적용된 프로세서다. A10 Fusion 고성능 코어 아키텍처의 프론트엔드는 A9의 프로세서 아키텍처와 유사하게 6개의 명령어를 한 사이클에 발행할 수 있는 것으로 보인다. 백엔드가 완벽하게 프론트엔드가 발행하는 명령어를 수행한다고 가정했을 때 이론적으로 A10 Fusion의 메인 프로세서가 1초에 수행할 수 있는 명령어의 갯수는 140억개 정도이다.

 

사진 : 애플

 

즉, 별도의 이미지 처리 프로세서 없이 메인 CPU가 지금과 같은 연산을 수행한다면 가장 이상적인 경우에도 사진 한 장을 찍는 데 7초 이상이 소요된다. 물론 그 동안 스마트폰의 어떤 기능도 이용하지 못함은 당연하다. 물론 병렬 연산에 최적화된 GPU가 합세한다면 이보다 더 빠르게 연산을 마칠 수 있겠지만, 사진 한 장을 찍을 때 CPU와 GPU가 모조리 풀 로드로 돌게 되는 것은 전력 소모 측면에서도, 사용자 경험 측면에서도 좋지 못하다. 실제로도 이런 일이 일어나지는 않는다. 아이폰 7 시리즈의 AP인 A10 Fusion칩 안에는 이미지, 영상 처리만을 전담하는 부분이 있는데, 이 부분을 이미지 처리 프로세서라고 한다. 아이폰 7 시리즈의 이미지 처리 프로세서는 사진 한 장을 찍는데 들어가는 1000억번의 연산을 25밀리초만에 수행한다. 1초로 환산하면 4조번의 연산을 수행하는 것이다. 메인 프로세서나 GPU와 비교했을 때 훨씬 높은 연산 성능임은 물론이고, 굉장히 에너지 효율적이다. 어떻게 이런 일이 가능한 것일까.

 

 

디지털 시스템이 특정 동작을 하도록 설계하는 데는 크게 두 가지 접근방법이 있다. 한 가지는 그 동작만을 수행할 수 있도록 회로를 설계하는 것이고, 나머지 한 가지는 범용으로 동작이 가능한 회로를 설계한 후 소프트웨어로 특정 동작을 지시하는 것이다. 먼저 후자의 방식은 우리가 흔히 알고 있는 컴퓨터 프로세서가 동작하는 방식이다. 이 방법의 장점은 명확하다. 단 한가지 회로만 가지고, 소프트웨어 명령어를 바꾸면 그 어떤 계산도 수행할 수 있다. 반대로 단일 동작을 수행하는 회로의 경우 범용 회로와 소프트웨어로 같은 기능을 구현하는 것보다 훨씬 빠르고 전력 효율적이다. 이런 장점에도 불구하고 단일 동작을 수행하는 회로는 특수한 경우에만 사용되는데, 설계된 목적의 연산을 수행할 때 외에는 아무 것도 못 하는 부분이 되기 때문이다.

 

이 때문에 특정 목적으로만 동작하는 회로의 경우에는 시스템이 저전력으로 동작할 필요가 있고, 원하는 작업이 메인 프로세서와 소프트웨어의 조합으로 처리하기에는 너무 부하가 심한 경우이면서 그 작업이 빈번하게 이루어지는 경우에 투입된다. 사진이나 영상 처리의 경우 이런 목적에 완벽히 적합하다. 먼저 스마트폰의 어플리케이션 프로세서의 제 1덕목은 저전력 동작이다. 그리고 위에서 설명한 것과 같이 사진 찍기에 요구되는 연산량은 메인 프로세서와 소프트웨어의 조합으로 처리하기에는 너무 부하가 크다. 마지막으로 스마트폰에서 카메라 기능은 매우 자주 사용되는 기능이다. 즉, 사진과 영상 처리만을 위한 회로를 별도로 만들어서 넣음으로서 발생하는 원가 상승과 수고로움을 상쇄할만큼 이미지 처리 프로세서가 주는 이득이 큰 것이다. 

 

iPhone 7 Plus / ISO 25 / 메인 카메라 / 1/30 ; 두배 줌 상태로 찍었지만 망원렌즈의 최소 초점거리 안쪽의 물체라 메인 카메라의 소프트웨어 줌으로 찍힘

 

아이폰 7 시리즈의 이미지 처리 프로세서는 기존 아이폰 6s 시리즈에 들어가던 이미지 처리 프로세서에 비해서도 큰 향상을 보여주고 있는데, 가장 먼저 기본적인 연산 성능 자체가 거의 2배 가까이 향상되었다. 아이폰 7 시리즈의 이미지 처리 프로세서가 이렇게 강력한 연산성능을 갖춰야 하는 이유는, 아이폰 7 플러스에 적용된 듀얼 카메라 때문이다. 아이폰 7 플러스에서 2배 줌 이상의 사진을 찍을 때 아이폰은 항상 기본 카메라에서 센서 일부 영역을 크롭해서 사진을 구성할 것인지, 아니면 망원 카메라의 센서에서 오는 데이터를 활용해 사진을 구성할 것인지를 실시간으로 결정해야 하기 때문이다. 사실 광학 손떨림 방지 기능을 제외한다면 저조도를 포함한 대부분의 상황에서 망원 카메라의 데이터를 활용하는 것이 낫다. 망원카메라의 센서 면적 자체가 메인 카메라의 센서보다는 작지만, 크롭되는 메인 카메라 영역보다는 넓기 때문이다. 하지만 아이폰 7 플러스의 망원 카메라에는 광학 손떨림 방지 기능이 없기 때문에, 광학 손떨림 방지기능을 이용해 긴 노출시간을 유지할 수 있는 경우에는 메인 카메라의 센서 일부를 사용해 이미지를 만들고, 광학 손떨림 방지 기능이 큰 힘을 쓰기 어려운 환경에서는 망원 카메라에서 오는 이미지를 선택하게 된다.

 

사진 : 애플

 

그 외에도 망원 카메라의 최소 초점거리 안쪽의 물체를 촬영할 때나, 뒤에서 언급할 인물 사진 모드 등 망원 카메라와 메인 카메라가 같이 동작해서 사진을 구성해야 하는 일이 상당히 많기 때문에 필연적으로 기본적인 연산 성능 자체가 높아질 수밖에 없다. 다만 연산 성능을 높이기 위해 추가적인 연산 유닛을 배치하기보다는 클럭 스피드를 올렸기에, 아이폰 7 플러스에서 2배 줌 이상의 환경으로 촬영을 하다보면 상당한 발열을 체감할 수 있다. 물론 아이폰 7 시리즈의 이미지 처리 프로세서가 단지 속도만 빨라진 물건은 아니다. 더 나아진 예외 처리 알고리즘이나 노이즈 제거 알고리즘 등이 포함되어 있기도 하겠지만, 가장 재미있는 것은 요즘 한참 뜨고 있는 머신 러닝 기법이 적용된 얼굴 인식 알고리즘을 탑재하고 있다는 점이다.

 

카메라에서 얼굴 인식이 중요한 이유는 분명하다. 인물 사진을 찍고 싶을 때 별도의 조작 없이도 카메라 시스템이 피사체를 인식하고 거기에 초점이나 노출시간 등의 설정을 맞춰줄 수 있기 때문이다. 물론 사진에 대해 조예가 깊은 사용자라면 스스로 정확한 지점에 초점을 맞추고 사진을 찍을 것이기 때문에 이런 기능은 재미있는 부가기능 정도에 지나지 않겠지만, 그냥 셔터를 누르면 사진이 찍힌다고 생각하는 대부분의 사용자들에게는 더 훌륭하고 지능적인 얼굴, 몸체 인식 기능은 더 잘 찍힌 사진을 남겨줄 가능성이 크다. 물론 이전의 아이폰의 이미지 처리 프로세서 역시 얼굴 인식 기능을 수행했지만, 이들은 전통적인 얼굴인식 알고리즘을 갖고 있었다. 여러 수학적인 알고리즘을 이용해 이미지로 나타난 사람 얼굴의 특징을 잡아내고, 이와 유사한 특징을 지니고 있는 이미지 부분을 얼굴로 인식하는 것이다.

 

사진 : 'DeepFace: Closing the Gap to Human-Level Performance in Face Verification' 논문 중

 

즉, 지금까지의 얼굴 인식은 사람이 직접 얼굴 이미지의 특징을 컴퓨터에게 알려주고 컴퓨터가 이 특징들을 이미지에서 검출하는 방식으로 이루어졌다. 하지만 요즘 대세인 머신 러닝 기법을 이용하면 더 효과적인 얼굴 인식 알고리즘을 만들 수 있다. 머신 러닝 기법을 통해 만드는 알고리즘이 기존 알고리즘과 가지는 가장 큰 차이는 컴퓨터가 엄청난 양의 데이터에서 ‘특징’을 직접 검출하고, 이를 통해 알고리즘을 구성한다는 것이다. 보통 이런 이미지 처리에는 인공신경망 기법이 가장 많이 사용되는데, 엄청난 양의 얼굴을 신경망에 학습시킴으로써 높은 정확도로 사람의 얼굴을 인식할 수 있는 신경망을 만들어낼 수 있다. 인공신경망의 학습에는 엄청난 컴퓨팅 자원이 들어가지만, 학습된 신경망을 통해서 결과를 얻어내는 데는 훨씬 적은 컴퓨팅 자원만 있으면 되는데, 이미지 처리 프로세서가 낮은 정확도의 범용 프로세서를 포함하여 소프트웨어적인 신경망을 처리하거나, 혹은 학습된 신경망 그 자체를 하드웨어 회로로 구현할 수도 있다. 아이폰 7의 이미지 처리 프로세서가 어떤 방식을 채택했는지는 알 수 없지만, 최신 머신 러닝 기법을 활용하여 사용자 경험을 증진시킨 좋은 예시가 될 수 있다.

 

iPhone 7 Plus / ISO 20 / 메인 카메라 / 1/766

 

또, 위에서 언급한 것과 같이 더 빨라진 이미지 처리 프로세서는 더 넓은 색영역을 구현하는 데도 필수적이다. 이전 편에서도 언급한 것과 같이, 애플의 P3 색영역은 기존에 R, G, B값이 8비트로 표현되었던 것과는 달리 R, G, B각각의 색을 16비트로 표현하게 된다. 이는 이미지 처리 프로세서가 처리해야 할 데이터의 크기가 훨씬 커졌다는 것을 의미하기 때문에, 더 넓은 색영역의 사진을 찍기 위해서는 더 높은 성능의 이미지 처리 프로세서가 필요하다. 삼성과 같이 독자적인 칩 설계 역량을 가진 회사는 자체적으로 이미지 처리 프로세서를 설계함으로써 카메라 시스템이 더 넓은 색영역을 구현할 수 있도록 조치할 수 있겠지만, 칩 설계 역량이 없는 회사들은 퀄컴 등이 제공하는 범용 이미지 처리 프로세서가 이에 맞도록 설계되기를 기다려야 할 것이다.

 

이처럼 이미지 처리 프로세서는 디지털 카메라 시스템에서 매우 핵심적인 역할을 수행하고 있다. 똑같은 렌즈 시스템과 센서를 사용하더라도 이미지 처리 프로세서의 성능 개선은 더 나은 사진을 보여줄 수 있다. 아이폰 7 시리즈의 이미지 처리 프로세서는 전작에 비해 여러 방향에서 개선된 점을 보여주고 있다. 가장 기본적인 프로세서의 스루풋은 최대 2배로 빨라졌고, 인공 신경망 기법이 적용된 얼굴, 몸체 인식 기능은 카메라 시스템이 좀 더 정확하게 피사체를 인식할 수 있도록 해 준다. 거기에 아이폰 7 플러스 모델에서는 메인 카메라와 망원 카메라가 보내 오는 이미지 신호를 실시간으로 분석하고, 현재 주변의 상황에 맞춰 가장 좋은 결과를 낼 수 있는 카메라를 선택해주기도 한다. 이 두 카메라의 이미지를 비교해 깊이 맵을 형성할 수 있는 기능 역시 투입되어 있는데, 이 깊이 맵은 아이폰 7 플러스의 새로운 기능인 인물 사진 모드가 동작의 기본이다. 지금까지 이미지 처리 프로세서의 성능 향상점들에 대해 짚어봤는데, 이런 강력한 성능의 이미지 처리 프로세서의 힘이 가장 잘 드러나는 기능인 인물 사진모드에 대해 좀 더 자세히 알아보자.


두 개의 렌즈와 소프트웨어의 마술 : 인물 사진 모드

 

사진 : 애플

 

아이폰 7 시리즈가 처음 출시되었을 때, 애플은 인물 사진모드가 아직 완성되지 않았기 때문에 추후 소프트웨어 업데이트를 통해 이 기능을 제공할 것이라 안내했다. 그리고 애플은 아이폰 7 시리즈가 출시된 지 한달여 만에 iOS 10.1 업데이트를 통해 인물 사진모드를 일반 사용자들에게 제공했다. 또 이 모드는 위에서도 설명한 것과 같이 기본적으로 카메라 두 개를 동시에 사용하기 때문에 메인 카메라 하나만 탑재된 아이폰 7에서는 사용할 수 없는 기능이기도 하다. 하지만, 이 기능은 아이폰 7 시리즈의 카메라 관련 기능 변경점 중에서 가장 거대하고 흥미로운 변화이다. 사실 아이폰 7 플러스에 추가된 망원 카메라는 이 기능을 위해서 추가되었다고 해도 과언이 아닐 정도다. 지금부터 인물 사진 모드에 대한 모든 것을 알아보자.

 

영상 : wikipedia 'Perspective distortion(Photograpy)' 문서 중

 

멋진 인물 사진을 찍기 위해서는 먼저 몇 가지 조건이 갖춰져야 한다. 첫 번째는 표준에서 망원대의 렌즈가 필요하다. 카메라의 화각이 넓으면 넓을수록 한 화면에 많은 내용이 담기게 되는데, 인물이 주인공이 될 인물 사진에서 인물을 제외한 나머지는 불필요한 내용이 되기 마련이다. 게다가 광각 렌즈로 인물로 화면의 상당 부분을 채우려면 매우 근접해서 사진을 찍어야 하고, 이렇게 근접해서 사진을 찍게 되면 카메라에 가까운 부분이 비정상적으로 강조되는 광각 원근 왜곡이 일어난다. 이런 이유 덕분에 인물용 렌즈는 광각 렌즈보다는 표준 렌즈와 준 망원렌즈가 더 선호된다.

 

iPhone 7 Plus / ISO 20 / 메인 카메라 / 1/399

 

그 다음으로 필요한 것들은 인물 외에 불필요한 부분들을 예쁘게 ‘아웃포커싱’ 시켜줄 수 있는 카메라 시스템이다. 인물 사진을 찍었더니 인물보다 주변 사물이나 풍경들이 더 돋보이는 흔히 ‘시선강탈’이 발생하는 경우에는 소기의 목적을 달성하지 못한 것이다. 물론 인물에만 집중할 수 있도록 배경을 깔끔히 정리하고 사진을 찍을 수 있다면 가장 좋겠지만, 대부분의 상황에서, 특히 스마트폰과 같은 포터블 디바이스로 사진을 찍는 경우에는 거의 불가능한 이야기이다. 따라서 주변에 방해가 되는 사물들이 있더라도, 피사체에 초점을 맞췄을 때 이런 사물들이 뿌옇게 흐려진다면 자연스럽게 인물을 부각시킬 수 있을 것이다. 또, 사진관에서 찍은 증명사진처럼 완전히 치워진 배경에서 찍은 사진보다 좀 더 자연스러운 모습을 담아낼 수 있다는 점에서 ‘배경을 잘 날리는’ 카메라 시스템이 인물 사진에 적합하다.

 

사진 : 자유롭게 블로그 중 '렌즈에 따른 피사계심도' 포스트(링크)

 

그런데 왜 어떤 카메라 시스템에서는 같은 사진을 찍어도 사진 전체에 초점이 맞은 것처럼 보이고, 어떤 카메라 시스템에서는 배경을 잘 날려주는 것일까? 이는 카메라 렌즈 시스템이 상을 맺는 기본적인 원리를 살펴봄으로써 이해할 수 있다. 위에서 설명한 것과 같이, 대부분의 광원, 혹은 빛을 반사시키는 물체들은 빛을 여러 방향으로 쏘아보낸다. 이 중에서 렌즈 시스템의 조리개를 통과한 빛만이 카메라 시스템에 최종적으로 상을 맺게 되는데, 초점이 정확하게 맞는 거리의 피사체의 한 점에서 퍼져나와 조리개를 통과한 렌즈 시스템의 초점 거리에 위치하고 있는 이미지 센서에 정확하게 한 점으로 모이게 된다. 즉, 초점이 정확하게 맞는 지점의 광원들에서 온 빛들은 이미지 센서에 정확하게 점으로 상을 맺게 되고, 우리는 선명한 사진을 볼 수 있게 된다. 그렇다면 초점이 맞지 않는 지점에서 오는 빛들은 어떻게 되는 것일까?

 

사진 : 자유롭게 블로그 중 '렌즈에 따른 피사계심도' 포스트(링크)

 

초점이 맞지 않는 지점에서 온 빛이라고 해서 아예 이미지 센서에 상이 맺히지 않는 건 아니다. 다만 이 경우에는 한 점의 광원에서 출발한 빛이 이미지 센서에 도달했을 때 한 점이 아니라 원의 형태로 맺히게 된다. 예를 들어 초점이 맞는 지점보다 카메라와 더 가까이 있는 광원에서 퍼져나가는 빛은 카메라 시스템의 초점거리보다 먼 거리에 한 점으로 맺히게 된다. 즉, 이 광원의 초점거리보다 가까이에 있는 이미지 센서에서는 한 점이 아니라 원의 형태로 상이 맺히게 되는 것이다. 우리는 이 원을 ‘착란원’이라고 부른다. 정확히 말하자면 정확히 초점이 맞은 지점의 광원은 이미지 센서에서 정확히 한 점을 이루지만, 그 외의 모든 지점에서 오는 빛들은 이미지 센서에 착란원의 형태로 상을 맺는다. 다만 그 착란원의 크기가 우리 눈의 해상력으로 구분할 수 없을 정도로 충분히 작다면, 역시 이 영역도 우리 눈으로 보기에는 선명한 이미지로 보일 것이다. 렌즈 시스템의 크기에 따라 착란원의 크기를 충분히 작게 유지할 수 있는 범위가 달라지는데, 이 범위가 넓다면 좀 더 많은 영역이 선명한 이미지를 보여주게 될 것이고 우리는 이를 ‘심도가 깊다’고 표현한다. 반대로 착란원의 크기를 충분히 작게 유지할 수 있는 범위가 좁다면, 그 외의 부분의 영역은 뿌옇게 흐려진 이미지를 보여줄 것이고, 우리는 이를 ‘심도가 얕다’고 표현한다.

 

사진 : 자유롭게 블로그 중 '렌즈에 따른 피사계심도' 포스트(링크)

 

그렇다면 인물용으로 적당하도록 카메라 시스템의 심도를 얕게 만들기 위해서는 어떤 요소들이 필요한지를 살펴보자. 먼저 렌즈 시스템의 초점거리가 길어질수록 피사계심도는 얕아진다. 즉, 나머지 조건들이 같을 때 광각 카메라보다는 망원 카메라가 더 얕은 피사계심도의 사진을 찍을 수 있다. 두 번째는 조리개의 직경이 커질수록 더 얕은 피사계심도의 사진을 찍을 수 있다. 조리개의 직경이 작을 때는, 조리개를 통과한 빛 자체의 크기가 크기 않기 때문에 이 빛이 형성하는 착란원의 크기 역시 작아지게 된다. 착란원의 크기가 작아진다는 것은 착란원이 ‘점처럼 보이는’ 범위가 넓어짐을 의미하고 이는 피사계심도가 깊어짐을 의미한다. 반대로, 조리개의 직경이 클 때는 반대의 현상이 나타나서 피사계심도가 얕아진다. 그 때문에 같은 조건에서 조리개값이 낮을수록 심도가 얕은 사진을 찍을 수 있는 것이다. 마지막으로 피사체와의 거리가 가까울 수록 심도가 얕아지게 된다. 사진을 찍을 때 피사체를 카메라 시스템에 가까이 두고 배경을 피사체로부터 멀리 두게 되면 피사체만 살아나고 나머지 배경이 뭉개지는 것을 볼 수 있을 것이다.

 

사실 센서의 크기 그 자체는 피사계 심도에 큰 영향을 주지 않는다. 오히려 센서의 크기가 커지면 커질수록 더 큰 착란원도 점으로 보이기 때문에 다른 모든 조건이 같을 때 센서의 크기가 커지면 오히려 심도는 깊어진다. 하지만 센서의 크기가 커지면, 같은 화각을 얻기 위해 더 큰 초점거리가 필요한데, 센서의 크기가 커져서 심도가 깊어지는 정도보다 초점거리가 길어지면서 심도가 얕아지는 효과가 훨씬 크기 때문에 일반적으로 센서 크기가 클 수록 얕은 심도의 사진을 찍을 수 있다고 표현하긴 하지만, 사실은 센서 크기가 아니라 센서가 크기 때문에 길어친 초점거리 때문에 이런 현상이 일어나는 것이다. 즉, 인물 사진에 적합한 렌즈 시스템은 표준에서 망원의 화각을 가져 피사체를 중심적으로 찍어줄 수 있으며, 얕은 심도를 가진 시스템이 될 것이다.

 

사진 : 삼성

 

그렇다면 스마트폰에 이런 인물용 카메라를 장착할 수 있을까? 먼저 첫 번째로 화각 문제이다. 일반적으로 스마트폰은 여러 상황에서 사진을 찍고 영상을 촬영해야 하기 때문에 가급적 광각의 카메라를 탑재하게 된다. 다만 아이폰 7 플러스처럼 인물 촬영을 위한 망원 카메라를 하나 더 투입하는 방법으로 인물 촬영에 적당한 화각의 카메라를 추가할 수 있다. 그 다음 문제는 얕은 심도를 구현하는 것인데, 얕은 심도를 구현하기 위해서는 초점거리를 늘리고 조리개의 크기를 키워야 한다. 하지만 불행하게도 높이가 매우 한정적인 스마트폰 카메라에서 초점거리를 늘리는 것은 매우 어렵다. 또 초점거리를 늘리는 동시에 더 밝은 조리개를 탑재하기 위해서는 카메라 시스템이 차지하는 평면적인 면적 역시 늘어나게 된다. 즉, 정공법으로 스마트폰에 인물 촬영용 카메라를 투입하기 위해서는 인물 촬영용 카메라가 오히려 메인 카메라보다도 훨씬 거대해지게 될 것이며, 카메라가 차지하는 부피가 넓어지면서 발생하는 여러 트레이드오프는 스마트폰 설계자들을 골치아프게 할 뿐만 아니라 사용자들에게도 불편을 안겨다줄 것이다. 이런 독특한 컨셉의 스마트폰들은 우리가 흔히 알듯이 금방 시장에서 사장될 뿐이다.

 

하지만 애플의 엔지니어들은 이런 상황을 타개할 멋진 아이디어를 떠올렸다. 인물 촬영에 적합한 화각의 카메라를 하나 더 추가했기 때문에, 이 두 카메라의 영상을 이용해 3D 사진을 구성할 수 있게 되었다는 사실을 떠올린 것이다. 우리 눈은 세상을 3D로 인지할 수 있다. 우리가 흔히 ‘거리감’을 느낄 수 있다는 것이 바로 그것이다. 초등학교 때 했던 실험이 기억나는가? 양 손에 연필 하나씩을 잡고 양 손을 몸과 적당한 거리에 둔 뒤에 한쪽 눈만을 뜨고 이 둘의 끝을 맞닿게 해 보자. 이후에 양쪽 눈을 모두 뜨고 똑같은 동작을 해 보자. 분명히 차이가 있을 것이다. 우리가 이렇게 거리감을 ‘직감적’으로 느낄 수 있는 것은 양쪽 눈에서 오는 시각 정보가 조금씩 차이가 나고, 우리 뇌가 이를 이용해 물체의 거리를 계산하기 때문이다. 우리가 흔히 알고 있는 3D 영화 역시 이와 같은 방식으로 이뤄진다. 사람의 양 눈이 떨어진 정도로 카메라를 떨어뜨려 영상을 촬영한 다음, 왼쪽 카메라의 영상을 왼쪽 눈에, 오른쪽 카메라의 영상을 오른쪽 눈에 보여주게 되면, 우리 뇌는 이 둘을 적절히 합성하여 실감나는 3D 영상을 볼 수 있게 되는 것이다.

 

사진 : 애플

 

애플의 엔지니어들이 한 일은 우리 뇌에서 일어나는 거리감의 계산을 소프트웨어로 구현한 것이다. 아이폰 7 플러스의 망원 카메라와 광각 카메라는 약간 떨어진 거리를 갖고 있기 때문에 이 둘은 약간씩 다른 영상을 찍게 되는데, 이 둘의 차이를 계산하여 특정 물체가 카메라 시스템과 어느 정도의 거리에 있는지를 계산할 수 있다. 이를 통해 아이폰 7 플러스의 이미지 처리 프로세서는 총 9단계의 깊이 맵을 형성하게 되고, iOS는 이를 기반으로 사진의 어느 영역이 초점이 맞은 부분인지를 인지하고 초점이 맞은 부분을 중심으로 피사체가 있는 영역을 제외한 부분의 이미지에 소프트웨어적으로 블러 처리를 함으로써 심도가 얕은 사진을 모사하게 된다.

 

iPhone 7 Plus / ISO 400 / 망원 카메라 - 인물 사진 모드 / 1/60

 

다만 기존에도 소프트웨어를 이용하여 피사체를 인식하고, 피사체를 제외한 부분에 블러 처리를 하는 방식이 사용되긴 했지만, 단일 카메라에서 온 영상만을 가지고 이미지 처리를 하는 방식이었기에 그 한계가 뚜렷했다. 하지만 아이폰 7 플러스의 인물 사진 모드는 실시간으로 처리되어 사진을 찍기 전에도 뷰파인더를 통해 결과물을 확인할 수 있으며, 찍힌 사진 역시 기존의 소프트웨어 방식에 비해 훨씬 자연스러운 결과물을 보여준다. 위 예시 사진에서도 카메라로부터 거리가 먼 탕수육이 가까운 탕수육에 비해 더 심하게 흐려지는 현상을 관찰할 수 있는데, 이는 두 카메라가 생성한 9 단계의 깊이 맵에 따라 각기 다른 정도의 블러 처리가 들어갔기 때문에 나오는 효과이다. 이런 차이들이 아이폰 7 플러스의 인물 사진 모드를 좀 더 특별하게 만들어준다.

 

iPhone 7 Plus / ISO 100 / 망원 카메라 - 인물 사진 모드 / 1/60 - 데이지 덕의 가장자리가 제대로 처리되지 못한 것을 볼 수 있다.

 

물론 아이폰 7 플러스의 인물 사진 모드가 완벽하지는 않다. 특히 부드럽지 못한 물체의 가장자리 처리에 큰 어려움을 겪는데, 가장자리 뒷쪽으로 뒤의 풍경이 비칠 때 물체의 가장자리와 가까운 부분은 블러처리가 덜 되는 것이다. 사실 이는 가장자리 선이 복잡한 물체를 찍을 때면 거의 무조건 일어나는 현상인데 이런 현상이 일어나더라도 크게 눈에 띄지 않는 사진이 있는 반면, 저런 현상이 전체 사진을 망쳐버리는 경우도 있다. 다만 인물 사진 모드로 사진을 찍게 되면 이런 현상을 라이브로 확인할 수 있는데다 블러 처리가 들어가지 않은 사진 역시 같이 저장되기 때문에, 어설픈 블러처리로 사진 자체를 버리게 되는 일은 없을 것이다. 또한 기본적으로 망원 카메라 자체의 한계에 의한 단점들도 몇 가지 보인다. 기본적으로 망원 카메라가 작은 센서 크기를 탑재하고 있기 때문에 특히 저조도에서의 품질이 떨어지며, 빛이 부족한 경우 촬영 자체가 불가능할 수 있다. 또, 최단 초점거리가 상당히 길기 때문에 피사체로부터 어느 정도 거리를 확보해야 한다.

 

정리하자면 아이폰 7 플러스의 인물 사진 모드는 ‘인물 사진 촬영에 적합한 카메라’를 스마트폰에 넣겠다는 목표 하나를 위해 하드웨어와 소프트웨어가 통합적으로 작동한 애플다운 기능이다. 인물 사진에 적당한 화각을 얻되, 화질 손실을 최소화하기 위해 메인 카메라와 별도의 망원 카메라를 추가했다. 그리고 인물 사진에서 중요한 얕은 심도를 얻기 위해 두 개의 카메라가 얻어내는 이미지를 분석하고 이를 통해 3D 사진을 재구성하여 카메라와 떨어진 거리에 맞게 차등적인 블러를 주는 등의 기법을 이용해서 상당히 자연스럽게 ‘배경이 날아간 사진’을 얻어낼 수 있었다. 물론 아직 부족한 부분도 많다. 위에서도 언급한 것과 같이 기본 카메라와 같은 높이 제한에서 2배 망원의 사진을 얻기 위해 센서의 크기가 작아졌기 때문에 저조도에서의 사진 품질이 떨어질 수밖에 없는 문제와, 외곽선 처리 문제 등은 특정 상황에서 이 기능을 유명무실하게 만들 수 있다. 하지만 이런 문제를 감안하고도 이 기능은 상당히 유용한 기능이다. 무엇보다도 앞으로의 소프트웨어 업데이트와 하드웨어 업데이트를 통해 이 기능이 더 발전한다면 분명 아이폰의 ‘킬러 기능’이 될 수 있을 것이다.


카메라 성능 벤치마크가 본 아이폰 7 : DXOMark

 

지금까지는 아이폰 7 시리즈의 카메라에 적용된 여러 가지 기술들을 자세히 살펴보았다. 하지만 당연히 이런 기능들은 아이폰 7 시리즈에만 투입된 것이 아니다. 이전의 아이폰 모델들은 물론 애플과 스마트폰 시장에서 경쟁중인 많은 회사들 역시 이런 기술들을 적용해서 자사 스마트폰의 사진, 영상 품질을 끌어올리기 위해 노력하고 있다. 다만 사진의 품질이란 것은 스마트폰의 AP 성능처럼 쉽게 계량화될 수 있는 부분도 아닐 뿐더러 필자가 카메라의 성능을 객관적으로 비교할만한 능력을 갖고있지도 않다. 물론 느낌으로 이런 이런 부분들이 더 나아진 듯 하다고 결론을 지을 수도 있겠지만, 아이폰 7 시리즈의 카메라가 객관적으로 어떤 위치에 있는지를 좀 더 자세히 알고싶어하는 독자분들을 위해 공신력있는 카메라 벤치마크 사이트인 DXOMark의 아이폰 7 카메라 평가(링크)를 간략히 옮겨와서 소개하도록 하겠다.

 

 

먼저 종합 점수면에서 아이폰 7은 86점으로 삼성의 갤럭시 노트 5, 갤럭시 S6 Edge와 LG G5와 같은 점수를 기록했다. 갤럭시 노트 5와 갤럭시 S6 Edge는 아이폰 7에 비해 1년에서 1년 반까지도 출시 시기가 차이나는 제품들이다. LG G5 역시 아이폰 7에 비해 반년 가까이 빨리 출시된 제품으로 아이폰 7이 객관적인 사진 품질에서 경쟁사들에 비해 오히려 뒤지는 모습을 보여주고 있는 것을 알 수 있다. 현재 최고점을 기록하고 있는 스마트폰은 구글의 픽셀폰으로 89점의 스코어를 기록하고 있다. 다만 아이폰 7은 아이폰 6s 플러스의 84점과 아이폰 6s의 82점에 비해서는 확실히 높아진 점수를 보이면서, 전작에 비해 더 좋은 성능을 거둔 것으로 겨우 체면치레는 할 수 있게 되었다고 볼 수 있다.

 

사진 : DXOMark 'iPhone 7 camera review' 중

 

DXOMark는 여러 가지 시나리오를 통해 사진 품질을 노출과 대비, 색감, 자동 초점 성능, 질감 표현, 노이즈 감쇄 성능, 모아레 무늬 등 사진 품질을 떨어뜨리는 요소의 제거, 플래시 성능 등의 일곱 가지를 수치화해서 총 점수를 매기게 된다. 아이폰 7은 같은 광학 손떨림 방지 기능을 탑재한 아이폰 6s Plus와 비교했을 때 노출과 대비, 색감, 자동 초점 면에서는 거의 비슷한 수준을 기록했다. 이는 아이폰 7과 6s Plus가 같은 센서를 사용하는 데 기인하는것으로 보인다. 플래시 품질 역시 전작인 아이폰 6s Plus에 비해 큰 진전이 없는데, LED 플래시가 4개 투입되어 밝기가 최대 2배 밝아졌음에도 불구하고 이것이 실생활에서 큰 체감을 가져오는 차이는 아니다. 아이폰 7이 아이폰 6s Plus에 비해 향상된 모습을 보이는 부분은 질감 표현과 노이즈 감쇄 성능 그리고 사진 품질을 떨어뜨리는 요소의 제거 부분이다. 이 중에서 질감 표현의 경우 아이폰 7에서 새로 설계된 광학계의 덕을 본 것으로 보인다. 노이즈 감쇄 성능의 향상은 더 넓어진 조리개와 새로 설계된 광학계의 힘에 더불어, 이미지 처리 프로세서의 성능이 강화되면서 노이즈를 더 잘 잡아낼 수 있게 되었기 때문으로 보인다. 특히 아이폰 7의 카메라는 사진 품질을 떨어뜨리는 요소들의 제거에서 탁월한 점수를 받았는데, 이는 전적으로 이미지 처리 프로세서의 후처리 과정이 향상된 덕으로 보인다.

 

DXOMark는 종합적으로 주광에서 훌륭한 노출 조정과 넓은 다이나믹 레인지, 안정적인 화이트밸런스, 밝은 야외에서 훌륭한 질감 묘사와 빠른 자동초점 기능 그리고 트루톤 플래시를 적용해 플래시 환경에서도 훌륭한 화이트 밸런스와 색감을 보여주며, 노이즈를 잘 억제한다는 점을 장점으로 꼽았다. 반대로 저조도 환경에서 세세한 디테일을 놓치는 점과 휘도 잡음이 많이 발생하는 점, 그리고 자동 초점기능이 때때로 제대로 동작하지 않는 점과 플래시 하에서 초점 기능이 불안정하게 동작하며, 플래시가 주변부에는 빛을 제대로 퍼뜨려주지 못하는 점을 들었다.

 

사진 : DXOMark 'iPhone 7 camera review' 중

 

DXOMark 점수나 아이폰 7의 평가에서도 알 수 있듯이 아이폰 7은 주광하에서는 매우 훌륭한 카메라지만, 저조도 환경에서는 상대적으로 약한 모습을 보여주고 있다. 물론 전작인 아이폰 6s 시리즈에 비해서는 큰 향상을 가져온 것은 맞지만, 경쟁사의 최신 제품들과 비교하기에는 여전히 부족한 부분이 많다. 하지만 이런 아이폰의 약세가 소프트웨어적인 면에서 오는 것은 아니다. 아이폰 7 카메라의 단점들은 대부분 경쟁사의 플래그십 제품들에 비해 작은 이미지 센서를 가지고 있다는 것에서 기인한다. 절대적으로 받아들이는 빛의 양이 적기 때문에 저조도에서 사진 품질을 끌어올리는 데 한계가 있는 것이다. 다만 DXOMark의 카메라 리뷰는 아이폰 7 플러스에 추가된 망원 카메라에 대해서는 다루지 않고, 메인 카메라에 대해서만 다루었기 때문에 망원 카메라가 제공하는 새로운 화각의 사진이나, 두 카메라가 합쳐져서 동작해서 만들어내는 인물 사진 모드 등의 가치는 전혀 반영되지 않은 내용이라는 것은 감안할 필요가 있다.


결론 : 플러스 알파의 가치는?

 

사진 : 애플

 

디지털 카메라의 성능을 결정하는 요소는 크게 세 가지로 나눠 볼 수 있다. 가장 먼저 외부의 빛을 받아 이미지 센서로 적절히 투사해줄 수 있는 렌즈 시스템이다. 그 다음은 렌즈 시스템이 맺어준 상, 즉 빛을 전기 신호로 변환시키는 장치인 이미지 센서의 성능이 있겠다. 마지막으로, 이미지 센서에서 온 전기 신호를 수많은 연산을 거쳐 최종적으로 우리가 보는 사진으로 만들어내는 이미지 처리 프로세서 역시 디지털 카메라의 성능에 큰 영향을 미친다. 이 글에서는 아이폰 7 시리즈의 카메라를 렌즈 시스템, 이미지 센서, 이미지 처리 프로세서의 관점에서 분석해 보았다.

 

먼저 아이폰 7 시리즈는 전작에 비해 향상된 렌즈 시스템을 보유하고 있다. 가장 먼저 조리개가 더 커지면서 기존에 비해 더 많은 빛이 렌즈 시스템으로 유입된다. 더 많은 빛은 그 자체로 더 높은 신호대 잡음비를 의미하기 때문에 특히 저조도에서 사진의 품질을 올려줄 수 있다. 거기에 더해, 더 커진 조리개는 착란원의 크기를 더 크게 만들어 심도가 더 얕은 사진을 찍을 수 있게 해 준다. 또, 렌즈 시스템에 한 매의 렌즈가 더 추가되었다. 정확한 렌즈 설계는 알 수 없지만 전작보다 향상된 질감 표현 등은 바로 렌즈 시스템의 재설계에 힘입은 것으로 보인다. 또 아이폰 7 플러스에만 탑재되어 있긴 하지만 메인 카메라보다 2배 망원인 환산 56mm 화각의 렌즈 시스템이 하나 추가되었다. 한정된 설계 높이에서 두 배 망원의 환산화각을 구현하기 위해 어쩔 수 없이 메인 카메라보다 더 작은 센서를 사용했고, 기술적인 문제로 광학 손떨림 방지 기능을 탑재하지 못하면서 저조도에서 품질이 낮은 사진을 보여주긴 하지만, 다른 화각의 카메라 시스템이 추가되었다는 것은 반길만한 소식이다.

 

광학 시스템이 발전을 이룬 것과는 달리 이미지 센서에는 거의 변화가 없었다. 가장 중요한 이미지 센서의 크기는 전작과 동일하다. 칩웍스의 분석 결과에 따르면 이미지 센서 내부의 배선 등으로 봤을 때 이미지 센서 자체도 이전세대와 거의 같은 품질의 물건을 사용했다. 즉, 아이폰 7 시리즈의 카메라 성능 향상에 이미지 센서의 지분은 없는 것이나 다름없다. 다만 한 가지 짚어볼 점은 이미지 센서와 이미지 처리 프로세서의 협력으로 애플이 밀고 있는 Display P3 색영역을 잡아낼 수 있다는 것이다. 더 넓은 색영역을 찍을 수 있는 이미지 센서는 이를 표시해줄 수 있는 디스플레이와 맞물려 빨간색이나 초록색 계열의 사진을 찍었을 때 더 다채로운 색을 보여주게 된다.

 

큰 발전이 없었던 이미지 센서와는 달리 아이폰 7 시리즈의 이미지 처리 프로세서는 전작에 비해서도 큰 발전이 있었다. 가장 기본적으로 시간당 처리할 수 있는 명령어의 갯수가 전작에 비해 최대 2배까지 늘어났다. 이렇게 강력해진 이미지 처리 프로세서는 Display P3 색영역의 사진과 영상을 만들어내고, 아이폰 7 플러스의 듀얼 카메라가 마치 한 몸인것처럼 동작하게 만들어준다. 아이폰 7 플러스의 이미지 처리 프로세서는 항상 두 카메라의 정보를 한꺼번에 받아들이면서 상황에 맞게 최적의 카메라를 선택해서 사용자에게 제시한다. 그 외에도 뜨거운 감자인 머신 러닝 기법을 도입한 사람 인식 기술과 향상된 노이즈 감쇄, 불필요한 부분을 제거하는 능력 역시 발전했다. 그리고 무엇보다 이렇게 강력한 이미지 처리 프로세서는 ‘인물 사진 모드’가 작동할 수 있는 기반이 되었다.

 

‘인물 사진 모드’는 아이폰 7 플러스의 가장 재미있는 기능 중 하나이다. 보통 인물 사진을 찍기에 적합한 렌즈 시스템을 꼽아보라고 하면, 표준에서 망원의 화각을 가지고 심도가 얕은 사진을 찍을 수 있는 조리개값이 낮은 렌즈를 들 수 있다. 하지만 이런 스펙을 가진 렌즈 시스템은 물리적 한계 때문에 스마트폰에 투입되기 어렵다. 애플은 이런 조건을 스마트폰으로 가져오기 위해 스마트폰 카메라들 중에서는 망원 카메라인 환산화각 56mm의 카메라를 추가로 탑재하고, 두 개의 카메라가 만들어내는 이미지의 미세한 차이를 감지하여 사진을 3D로 재구성했다. 3D로 재구성된 사진에서 초점이 맞은 부분을 제외한 나머지 부분에 점점 더 강하게 블러를 걸어주는 방식으로 심도가 얕은 사진을 소프트웨어적으로 모사했다. 물론 망원 카메라 자체의 한계와 소프트웨어 방식이 완벽하지 못하다는 단점이 있지만 실시간으로 뷰파인더에 결과가 나타나고, 심도 효과가 적용된 사진과 적용되지 않은 사진이 동시에 저장되기 때문에 큰 불편함은 없다.

 

아이폰 7 시리즈의 메인 카메라 품질은 분명 전체적으로 경쟁사의 플래그십 스마트폰 카메라에 비해 뒤진다. 특히 작은 센서 크기때문에 저조도 환경에서 이런 차이는 더 두드러진다. 하지만 전작에 비해서는 확실한 성능 향상을 보여줌과 동시에, 타사에서는 찾아볼 수 없는 기능들이 추가되면서 소비자들을 현혹하고 있다. 더 넓은 색영역을 잡아낼 수 있는 카메라는 더 넓은 색영역을 표시해줄 수 있는 디스플레이와 맞물려서 사용자 경험을 증진시킨다. 카메라, 소프트웨어, 디스플레이가 맞물려 사용자의 경험을 증진시키는 이런 모습이 바로 우리가 애플에게 기대하는 모습이다. 거기에 추가된 망원 카메라를 활용한 인물 사진 모드는 경우에 따라서 매우 매력적인 기능이다. 물론 아직은 아쉬운 점이 없지 않지만, 이런 단점들이 하드웨어, 소프트웨어적으로 보완된 다음 세대의 아이폰이 어떤 모습을 보여줄지 벌써부터 기대가 된다. 작은 센서크기에서 오는 물리적인 한계를 보완하기 위한 플러스 알파. 이 플러스 알파를 얼마나 유용하게 사용하냐에 따라 아이폰 7 시리즈 카메라의 진짜 가치가 정해질 것이다.

 

지금까지 아이폰 7 시리즈의 카메라를 살펴보았다. 아이폰 7이 출시된지도 꽤 시간이 흘렀지만, 이 글은 단지 출시 직후에만 가치가 있는 리뷰로써 기획되지는 않았기에 지금이라도 여러분들께 선보이게 되었다. 곧 아이폰 7 자세히 알아보기 5부작의 마지막 편인 오디오편 역시 알찬 내용과 함께 찾아올 것이라 약속하며 이만 필자는 물러가도록 하겠다.

 


필자: Jin Hyeop Lee (홈페이지)

생명과학과 컴퓨터 공학을 복수전공하고 있는 대학생입니다.



참조
• iPhone 7 자세히 알아보기 : 카메라


관련 글
• [연작] 아이폰 7 자세히 알아보기 : 미리 맛보기
• [연작] 아이폰 7 자세히 알아보기 : 성능
• [연작] 아이폰 7 자세히 알아보기 : 디스플레이