이미지센서 – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Thu, 27 Mar 2025 11:52:38 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png 이미지센서 – SK hynix Newsroom 32 32 스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술 /high-dynamic-range-cis/ /high-dynamic-range-cis/#respond Mon, 25 Sep 2023 21:00:00 +0000 http://localhost:8080/high-dynamic-range-cis/ 피처폰에서 오늘날의 스마트폰에 이르기까지, 휴대폰은 다양한 기능을 갖춘 스마트 디바이스로 발전해 왔다. 특히 고성능 카메라 기능을 가진 스마트폰은 무거운 DSLR 카메라의 대안으로 인식되고 있다. 이 글에서는 SK하이닉스 HDR(High Dynamic Range)* 기술의 타임라인과 함께, 그간 스마트폰 카메라의 성능을 끌어올리기 위한 회사의 노력을 소개하고자 한다.

* HDR(High Dynamic Range): 사진에서 동적 범위는 이미지의 가장 밝은 영역과 가장 어두운 영역 사이의 범위를 나타낸다. HDR은 이 동적 범위를 SDR(Standard Dynamic Range)에 비해 넓혀 대비와 색상을 더 섬세하게 표현해 사람의 눈으로 보이는 것과 최대한 가깝게 구현하는 기술이다.
스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_01SK하이닉스, CIS, CMOS, HDR, 이미지센서

▲ 2000년대 초반부터 현재까지 HDR 이미지 센서의 개발 타임라인

사진의 동적 범위(Dynamic Range)를 향상시키기 위한 노력

스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_02,SK하이닉스, CIS, CMOS, HDR, 이미지센서

▲ HDR을 적용한 사진 vs 미적용한 사진

최근 스마트폰 카메라 센서의 기능과 구성은 DSLR 카메라에 버금가는 수준이다. 그러나 DSLR 카메라는 3~4μm(마이크로미터)의 픽셀 크기와 14bit 이상의 ADC(Analog-to-Digital Converter)*를 갖추고 있지만, 스마트폰 카메라는 스마트폰 크기의 제약으로 일반적으로 약 1μm의 픽셀 크기와 10bit ADC로 구성되어 있다. 이에 따라 저조도 환경에서의 이미지 품질과 동적 범위(Dynamic Range, DR) 측면에서 현재 스마트폰은 DSLR에 뒤처지고 있으며, CIS* 산업은 이를 개선하기 위해 노력 중이다.

* ADC(Analog-to-Digital Converter): 아날로그 신호를 디지털 신호로 변환하는 장치. bit가 높을수록 빛의 변화를 정확하게 감지해 더욱 선명하고 디테일한 이미지를 제공한다.
* CIS(CMOS Image Sensor): 빛의 색상과 강도를 전기 신호로 변환하여 처리 장치에 전달하는 센서. 스마트폰, 태블릿 등 디지털 기기의 ‘눈’ 역할을 한다.

동적 범위는 FWC(Full Well Capacity)*와 TN(Temporal Noise)*의 비율로 정의되며, FWC를 높이거나 TN을 낮추는 방법으로 동적 범위를 향상할 수 있다. 그러나 이러한 방법은 픽셀 구조와 회로 개선 등 고도의 기술이 필요하기 때문에, 다양한 가격대의 스마트폰에 모두 적용하기에는 한계가 있다.

* FWC(Full Well Capacity): 수광면적, 빛을 수용할 수 있는 최대 면적 즉, 빛을 픽셀이 신호 품질의 저하 없이 보유할 수 있는 최대 전하를 의미한다. 만약 픽셀의 전하가 포화 상태를 초과하면, 전하는 ‘블루밍’이라고 불리는 효과로 인접 픽셀로 넘쳐흐를 수 있다.
* TN(Temporal Noise): 이미지의 밝기와 색상이 의도치 않게 다르게 변하는 현상. 이 현상은 하나의 픽셀로 들어오는 광자를 전자로 변환하여 디지털 값으로 생성하는 과정에서 발생한다.

스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_03,SK하이닉스, CIS, CMOS, HDR, 이미지센서

▲ 동적 범위를 구하는 방정

하지만 SK하이닉스는 스마트폰의 픽셀 구조와 ADC를 유지한 채 ISP* 하드웨어 로직을 추가하여 동적 범위를 개선하는 방식으로 HDR 기술을 구현하고 있다. 이를 통해 스마트폰 가격과 무관하게 스마트폰에서 HDR 기능을 경험할 수 있도록 지원한다.

* ISP(Image Signal Processor): 디지털카메라, 휴대폰 등의 영상 처리를 주로 담당하는 미디어 프로세서의 일종. 디지털 이미지로 변환하고, 노이즈 감소, 자동 노출, 자동 초점, 자동 화이트 밸런스, HDR 보정, 이미지 선명화 등의 작업을 수행한다.

QHDR에서 DAG & iDCG HDR까지 – SK하이닉스 HDR 기술 개발의 역사

SK하이닉스의 HDR 기술은 2017년 QHDR 개발 이후 눈부신 발전을 이뤄냈다.

스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_04_01,SK하이닉스, CIS, CMOS, HDR, 이미지센서

▲ 다양한 HDR 기술의 장단점을 보여주는 표

QHDR(2017년 개발)

QHDR(Quad-Sensor HDR)은 Quad CFA(Color Filter Array)*를 활용한 다중 노출 시간 기반의 HDR 기술이다. Quad CFA에 픽셀별 노출 시간을 패터닝한 단일 프레임 영상을 촬영하여, 이를 합성하여 동적 범위를 확장하는 방식이다. Quad CFA 기술이 발전하면서 고해상도 센서의 경쟁력을 높이기 위해 HDR 기능을 센서에 통합했고, 이를 통해QHDR이 개발되었다. 그리고 QHDR의 합성 방식과 톤 매핑(Tone Mapping) 프로세스와 같은 기능을 센서에서 지원한다.

* CFA(Color Filter Array): 이미지 센서의 픽셀 위에 배치되어 색상 정보(R/G/B)를 포착하는 색상 필터. 최근에는 베이어(Bayer), 쿼드(Quad) 등 다양한 응용 기술을 결합한 고품질, 고기능 CIS 제품이 출시되고 있다.

스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_05,SK하이닉스, CIS, CMOS, HDR, 이미지센서

▲ 센서 내 QHDR 블록의 개념도

sHDR(2018년 개발)

QHDR은 센서에 HDR 기술을 통합하여 구현했기 때문에 센서 자체에 상당한 하드웨어 리소스가 필요하다. 하지만 sHDR은 센서와 AP(Application Processor)*가 함께 동작해 품질과 동적 범위를 최적화하는 기술이다.

sHDR은 센서가 다양한 노출 시간으로 여러 이미지를 촬영해 AP로 전송하면 AP가 이를 합성하고 톤 매핑하여 HDR 이미지를 구현한다. 이때 센서는 여러 이미지를 빠르게 AP로 전송할 수 있어야 한다.

* AP(Application Processor): PC의 메인보드 칩셋 기능을 하나의 칩에 구현한 것으로, 모바일 기기 내 OS, CPU, 그래픽카드, 메모리 등 여러 장치의 칩과 기능을 모두 포함한다.

스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_06,SK하이닉스, CIS, CMOS, HDR, 이미지센서

▲ sHDR에서 센서와 AP의 역할

iDCG-HDR(2021~2022년 개발)

QHDR과 sHDR은 여러 노출 시간으로 이미지를 촬영하기 때문에 움직이는 피사체를 촬영할 때 이미지의 왜곡(Motion Artifacts*)이 발생할 수 있다. SK하이닉스는 이 문제를 해결하기 위해 iDCG-HDR 기술을 개발했다.

* Motion Artifacts: 서로 다른 노출 이미지를 합성하는 과정에서 발생하는 이미지 왜곡 현상. 이는 카메라의 흔들림이나 피사체의 움직임으로 인해 발생한다. ‘ghosting artifacts’라고도 부른다.

DCG(Dual Conversion Gain)는 센서가 동일한 빛을 받아도 출력 밝기를 조절할 수 있는 혁신적인 기술이다. iDCG-HDR은 한 번의 노출 동안 다른 밝기로 촬영된 HCG(High Conversion Gain) 이미지와 LCG(Low Conversion Gain) 이미지를 하나로 합쳐 HDR을 구현한다.

센서는 두 프레임의 이미지를 합성하는 ISP를 지원하며, DCG 비율이 1:4인 경우 약 12dB의 동적 범위를 제공한다.

스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_07

▲ iDCG-HDR 블록의 개념도

DAG-HDR(2023년 개발)

iDCG-HDR은 QHDR과 sHDR보다는 이미지의 왜곡을 줄이지만, 물리적으로 고정된 CG(Conversion Gain)*를 사용하기 때문에 다양한 촬영 조건에서 동적 범위 개선에 제약이 있다. 또한 CG를 제어하기 위해 트랜지스터를 추가해야 하므로 제조 비용이 많이 드는 단점이 있다.

* CG(Conversion Gain): 이미지 센서의 출력 신호 레벨과 입력 신호 레벨의 비율. 이 비율은 입력 이미지와 출력 이미지 간의 정량적 대응을 보장한다.

DAG-HDR 기술은 서로 다른 AG(Analog Gain)*로 촬영한 두 장의 사진을 합성하여 HDR을 구현한다. 비록 최대 동적 범위는 iDCG-HDR보다 낮지만, 필요에 따라 조정할 수 있어 저가형 스마트폰에서도 HDR를 구현할 수 있다.

* AG(Analog Gain): 아날로그 신호를 디지털 신호로 변환하기 전에 증폭하여 더 높은 감도와 더 적은 노이즈를 제공한다.

DAG & iDCG HDR(2023년 개발)

DAG & iDCG HDR 기술은 DAG-HDR과 iDCG-HDR의 장점을 결합한 방식이다. 단일 노출 시간을 기반으로 한 HDR 기술로 사용자의 다양한 촬영 조건에도 이미지 왜곡을 최소화하고 동적 범위를 유연하게 늘릴 수 있다.

이 기술은 CG 비율이 1:4이고 AG가 16x일 때, 최대 36dB까지 동적 범위를 향상시킬 수 있다.

스마트폰 카메라의 미래를 여는 SK하이닉스 CIS의 HDR 기술_08,SK하이닉스, CIS, CMOS, HDR, 이미지센서

▲ DAG & iDCG HDR 블록의 개념도

앞으로 SK하이닉스는 다양한 촬영 조건에서 사진의 동적 범위를 향상하면서 이미지의 왜곡을 최소화하는 DAG & iDCG HDR 개발에 집중, CIS 기술을 고도화하여 모든 스마트폰 사용자가 HDR의 잠재력을 경험할 수 있도록 최선의 노력을 다할 것이다.

]]>
/high-dynamic-range-cis/feed/ 0
새로운 성장동력 만들어낸 SK하이닉스 신민석 팀장, 과학기술진흥 유공 장관 표창으로 공로 인정받아 /contribution-to-science-shinminseok/ /contribution-to-science-shinminseok/#respond Thu, 18 May 2023 15:00:00 +0000 http://localhost:8080/contribution-to-science-shinminseok/ SK하이닉스, CIS, 과학기술진흥

“회사가 지금의 D램과 낸드플래시 위상을 얻은 건 과거 선배들의 어려울수록 더 강해지는 도전정신이 있었기 때문입니다. CIS 역시 이러한 도전정신을 이어받아 많은 혁신을 이루고 있습니다. 동료들과의 대화에서 항상 많은 것들을 배우고 새로운 아이디어를 얻고 있습니다. 이번 장관 표창은 혼자만의 성과가 아닌 CIS 제품 개발에 참여한 모두가 함께 받은 상이라고 생각합니다.”

SK하이닉스 CIS Platform Design 신민석 팀장이 지난 4월 21일 ‘제56회 과학의 날’을 맞아 진행된 ‘2023년 과학기술진흥 정부포상’에서 과학기술정보통신부장관 표창을 수상했다.

신 팀장은 2012년 6월 SK하이닉스 CIS 사업부에 입사해 10년이 넘는 기간 동안 회사의 CIS* 기술개발을 이끌어왔으며, 사업 영역을 확장하는 데 공헌했다는 평가를 받고 있다. 특히, 4차산업혁명 시대 핵심 기술이 될 것으로 전망되는 ToF* 기술 기반의 3D센서 제품을 개발하고 양산하는 등 미래 먹거리가 될 사업의 근간을 마련했다.

* CIS(CMOS Image Sensor) : 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor, CMOS) 구조를 가진 저소비전력형의 촬상소자로 카메라 폰, 웹 카메라, 의학용 소형 촬영 장비 등 전자 디지털 기기에서 일종의 전자 필름 역할을 한다.

* ToF(Time of Flight) : 3D 카메라를 위한 3차원 거리 측정 기술. 빛이 물체에 반사돼 돌아오는 시간을 기준으로 거리를 측정하는 직접적 ToF와 반사돼 돌아오는 위상 지연(Phase Shift) 차이**를 이용해 거리를 측정하는 간접 ToF가 있다.

** 위상 지연(Phase Shift) 차이 : 원에서 물체로 보낸 빛의 파장과 물체에 반사돼 센서로 돌아온 빛의 파장 사이의 차이

지난 5월 2일 서울 양재동 엘타워에서 열린 장관표창 전수식에서 가족의 축하와 함께 표창장을 받은 신 팀장은 “반도체는 많은 전문가가 모여 각자 분야의 첨단기술을 통해 만들어 내는 예술작품과도 같은 것”이라며 “함께 한 많은 동료들의 노력으로 만들어진 성과에 대해 저는 단지 대표로 상을 받은 것뿐”이라고 소감을 전했다.

SK하이닉스의 CIS와 ToF 등 기술 개발을 이끌어 오며, 새로운 성장동력을 만들어 가는 그의 이야기를 뉴스룸이 직접 들어봤다.

이미지센서, 새로운 미래를 보는 반도체

스마트폰 카메라에 사용되는 CIS는 사물에서 반사되어 나오는 빛을 디지털 신호로 변환하는 핵심 센서다. 과거 필름 카메라로 사진을 촬영할 때는 조명이나 렌즈, 필름 등 다양한 도구들이 필요했지만, 이제는 CIS라는 반도체를 통해 간편하게 촬영하고 바로 디지털 정보로 전환해 저장할 수 있다.

SK하이닉스, CIS, 과학기술진흥

▲ 최근 발전된 CIS 기술로 다양한 기능들이 추가되고 있다고 설명하고 있는 신민석 팀장

“최근에 스마트폰 카메라를 통해 손쉽게 활용하는 다양한 기능들이 있는데요. 예를 들면, 100배 줌이라던가, 나이토그래피(야간촬영 모드)와 같은 것들이 그것이죠. 이러한 새로운 카메라 기술들은 CIS를 기반으로 구현할 수 있습니다.”

CIS는 이미지 정보를 디지털 신호로 변환하는 것뿐 아니라 제품이 더 작아지면서 전력 소모를 줄이는 것을 가능하게 한다. 스마트폰과 같은 무선 디바이스의 경우, 한정된 배터리 전력을 통해 수많은 기능들을 구동해야 하므로 각 반도체의 저전력은 선택이 아닌 필수다. 이 때문일까? 신민석 팀장이 SK하이닉스에 처음 입사해 CIS 사업부에서 진행했던 프로젝트 역시 CIS의 노이즈* 개선과 저전력 회로 설계 기술 개발이었다.

* 노이즈(Noise) : 전자공학이나 기계제어 분야에서 기계의 동작을 방해하는 전기신호를 의미한다. 이미지나 영상 등에서는 자글자글한 형태로 보인다.

“4차산업혁명이 진전되면서 자율주행과 인공지능(AI)을 중심으로 하는 로봇 공학이 주목받고 있습니다. 현재의 자율주행에도 CIS를 활용하지만, 가까운 미래에 완전 자율주행을 구현하기 위해 전장(電装) 분야의 이미지센서 수요는 더욱 확대될 것으로 예상합니다. 그리고 로봇공학을 살펴봐도 마찬가지입니다. 보통 사람의 두뇌가 접하는 데이터 중 60% 정도는 시각을 통해 들어온다고 합니다. 사람의 역할을 대신하게 될 로봇 역시 그만큼 시각 데이터의 수집이 중요합니다. 이는 결국 이미지센서를 통해 이뤄지게 될 것이고요. 미래 핵심기술을 구현하기 위해 꼭 필요한 CIS는 추후 성장 가능성이 무궁무진하다고 생각합니다.”

그는 미래 핵심 기술 중 하나로 평가받는 ToF 기반 기술 제품 개발 및 양산화도 이끌고 있다. 3D 카메라를 위한 기술인 ToF는 2D로 구현되는 이미지의 영역을 넘어 실제 사물과의 거리를 측정해 3D 이미지를 구현할 수 있게 하는 기술로 사람의 행동을 인식하거나 얼굴 인증 등의 정밀도를 높일 수 있다.

신 팀장은 ToF 기술은 고객에게 더 양질의 제품을 제공할 수 있고, 제품 포트폴리오의 다양성을 확보할 수 있다고 강조했다.

새로운 것을 향한 도전, “어려웠지만, 보람차”

“SK하이닉스의 D램과 낸드플래시도 현재의 지위에 오르기까지 후발주자로서 힘들었던 시기를 겪었을 것입니다. 과거 선배들의 도전을 통한 기술 개발로 현재의 위치에 올라설 수 있었을 것이고, 지금의 저와 우리 구성원들 역시 이러한 혁신을 위한 도전 정신을 이어받았다고 생각합니다.”

신 팀장은 이미 견고하게 구축돼 있던 CIS 시장에 SK하이닉스는 새롭게 도전하는 후발주자로서 많은 어려움이 있었다며 지난 과거를 회상했다.

“지난 2015년에는 200mm 8M BSI* 제품을 개발해서 시장에 내놓았는데요. 당시 우리가 출시했던 제품은 경쟁사보다 작은 크기로 제작되며, 시장에서 큰 호응을 얻기도 했습니다. 이 제품을 개발하는 과정에서 우리는 한 번도 시도해 보지 않았던 기술들을 적용했습니다. 새로운 기술을 적용하는 과정은 매우 힘들었지만, 우리의 자체 기술이 적용됐다는 점과 이에 따라 시장에서 큰 사랑을 받는 제품이 됐다는 점 덕분에 아주 보람찬 기억으로 남아 있습니다.”

* BSI(Back Side Illumination, 후면 조사형 기술) : 카메라 이미지센서의 빛을 받는 부분을 칩의 최상부에 배치해 배선층에 의한 빛의 난반사를 막고 단위 화소당 빛 흡수율을 높여 광전 효율을 최대화할 수 있도록 하는 기술

8M BSI 제품 이후 신민석 팀장은 2017년부터 16M 제품 개발을 이끌었다. 웨이퍼 2개를 붙여 하나의 센서를 만드는 기술로 상판은 빛을 받는 용도로만 적용하고, 하판에는 받은 빛을 디지털 신호로 전환하는 역할 등 로직의 영역으로 구축해 칩의 크기를 더 작게 만들 수 있었다.

“2017년 당시를 회상해 보면, 후발주자인 우리에게는 어려움이 많았습니다. 이미 시장에는 비슷한 제품들이 나오고 있었는데, 우리는 완전히 처음부터 시작하는 상황이었으니까요. 시행착오도 많았고 연구도 상당히 오래 했던 기억이 납니다. 어렵게 개발했던 제품인 만큼, 지금은 당시에 만들었던 픽셀과 아키텍처들이 후속 제품 개발에 베이스가 돼서 큰 도움이 되고 있습니다.”

신 팀장은 사업을 진행하는 데 시장의 반응이 중요한 요소이지만, 더 나은 제품을 개발하기 위해서는 작은 실패 역시 중요한 자양분이 된다고 설명했다.

“특히 기억에 남는 프로젝트는 당사 최초 300mm 스택 센서 개발하는 데 참여한 것이었습니다. 개발 초창기에 갖은 불량들을 다 만나며 문제를 해결해 나갔습니다. 제품이 큰 성과를 내진 못했지만, 당시 고민해 만들었던 설계 구조와 기술들이 향후 300mm에서 스택 센서를 개발하는 데 밑거름이 되었다고 생각합니다.”

‘혁신’ 혼자선 만들 수 없어

SK하이닉스, CIS, 과학기술진흥

끝으로 신민석 팀장은 본인 스스로가 생각하는 ‘혁신 정신’에 대해 다음과 같이 설명했다.

“혁신은 ‘무에서 유를 창조하는 것’이 아니고 ‘거인의 어깨에 서서 세상을 바라볼 때 만들어 낼 수 있는 것’이라고 생각합니다. 제가 관여했던 당사의 35건의 특허 중 어떠한 것도 무에서 창조한 것은 없습니다. 가장 중요했던 것은 동료들과의 대화였습니다. 우리 SK하이닉스 구성원들을 둘러보면 정말 뛰어난 분들이 많습니다. 저는 동료들과의 대화에서 항상 많은 것들을 배우고 새로운 아이디어를 얻고 있습니다. ‘혁신 정신’이라는 것은 동료들을 존중하고, 경청하는 데서 시작된다고 생각합니다. 이와 함께 문제를 해결해야 한다는 적극적인 관심과 새로운 시도에 대해 두려워하지 않는 자세가 중요하겠죠. 최근 업계의 다운턴 상황으로 많은 어려움이 있지만 우리가 모두 함께하면 충분히 이겨낼 수 있을 것입니다.”

]]>
/contribution-to-science-shinminseok/feed/ 0
[미래 반도체 기술] 차세대 3D 이미지센서 소자 – 단광자눈사태다이오드(SPAD) /next-gen-3d/ /next-gen-3d/#respond Tue, 11 May 2021 15:00:00 +0000 http://localhost:8080/next-gen-3d/ 이미지센서는 빛을 디지털 신호로 변환해 이미지로 구현하는 역할을 하는 반도체다. 오늘날 카메라의 비중이 높은 스마트폰에서 빼놓을 수 없는 기술이자, 자율주행자동차, 로봇 등 미래 기술을 구현하는 데 있어서도 핵심적인 역할을 할 것으로 기대된다. 이처럼 전후방산업과의 연관 관계가 깊고 이를 활용해 고부가가치를 창출할 수 있어, 반도체 산업의 핵심 카테고리 중 하나로 주목받고 있다.

현재 이미지센서의 최대 수요처는 스마트폰으로 전체 이미지센서 수요의 약 70% 정도를 차지하고 있다. 하지만 앞으로는 자율주행자동차를 비롯한 미래 산업에서도 이미지 센서의 수요가 크게 증가할 것으로 예상된다.

이처럼 그 중요성이 강조되고 이에 따라 글로벌 주요 첨단 기술기업들의 관심이 쏠리면서, 앞으로는 현재 이미지센서 선도 그룹들의 시장 장악력이 크게 감소할 수도 있다는 전망도 나온다. 이에 소니(Sony)와 같은 기존 선도 업체들은 차세대 이미지센서 연구개발을 적극적으로 수행하고 있다.

차세대 이미지 센서 시장을 주도할 새로운 폼팩터 ‘3D 이미지 센서’

최근 차세대 이미지센서 시장을 주도할 새로운 폼팩터(Form Factor)로는 ‘3D 이미지센서’가 크게 각광받고 있다. 기존 이미지센서는 2D 이미지만 구현할 수 있는 데 반해, 3D 이미지센서는 사물까지의 거리(심도)를 측정함으로써 더 정밀하게 물체나 동작을 인식해 이를 3D 이미지로 구현할 수 있기 때문이다.

지난해 Yole Developpement가 발표한 내용에 따르면1), 3D 이미지센서 시장은 2019년 약 50억 달러에서 2025년 150억 달러로 연평균 성장률(CAGR)이 약 20%에 달할 것으로 기대된다. 그중 스마트폰 부문은 같은 기간 약 26.2%의 높은 성장률을 기록하며, 2025년에는 절반이 넘는 시장점유율을 기록할 것으로 전망된다. 자동차 부문 역시 약 27%로 가장 높은 연평균 성장률을 기록하며, 두 번째로 큰 시장을 형성할 것으로 예상된다.

1) ‘CMOS Camera Module Industry for Consumer & Automotive 2020’ by Yole Developpement(2020)

특히 스마트폰 분야에서는 자동초점(Autofocus)2), 근접 감지(Proximity Sensing)3) 등의 기능을 구현하기 위해 이미 2010년 초반부터 3D 이미지센서가 활용돼왔다. 또한 2017년 애플(Apple)이 아이폰(iPhone) 시리즈 10주년을 맞아 출시한 아이폰 X에서 3D 얼굴 인식 기능인 ‘Face ID’를 대대적으로 홍보한 이후에는 스마트폰의 혁신을 이끌 새로운 폼팩터 중 하나로 주목받기 시작했다.

이에 지금은 애플뿐만 아니라 삼성전자, LG전자, 화웨이(Huawei), 오포(OPPO), 비보(Vivo) 등 주요 스마트폰 업체들도 자사 스마트폰에 경쟁사보다 더 우수한 3D 이미지센서를 탑재하기 위해 치열한 기술 경쟁을 펼치고 있다.

2) 자동초점(Autofocus): 피사체에 초점이 자동으로 맞춰지도록 하는 카메라의 기능.
3) 근접 감지(Proximity Sensing): 빛을 쏘아 반사되는 광파를 감지해 물체나 사람의 존재를 인식하는 센서의 기능. 스마트폰에서는 통화할 때 화면에 닿은 사람의 얼굴을 인식해 화면을 꺼 불필요한 터치를 방지하는 등의 용도로 사용되고, 자율주행, 로봇 기술 등에서는 자동차 또는 로봇과 물체의 거리를 측정해 물체의 위치나 접근 여부를 알려주는 데 주로 사용됨.

3D 이미지센서의 동작 원리는?

3D 이미지센서가 3D 이미지를 얻는 방식은 크게 양안 시각(Stereo Vision)4) 방식, 구조 광(Structured Light)5) 방식, 비행시간(Time of Flight, 이하 ToF) 방식으로 분류된다. 이중 ToF 방식은 거리 측정 방식에 따라 위상 차이를 이용하는 ‘간접 ToF(Indirect ToF, 이하 I-ToF)’와 시간 차이를 직접 측정하는 방식인 ‘직접 ToF(Direct ToF, 이하 D-ToF)’로 구분된다.

4) 양안 시각(Stereo Vision): 사람이 두 눈으로 원근감을 인지하는 것과 유사하게 두 개의 이미지 센서를 사용해 사물까지의 거리를 측정하고 이를 활용해 3D 이미지를 구현하는 방식. 소형화가 어렵다는 근본적인 단점을 가지고 있음.
5) 구조 광(Structured Light): 특정한 패턴의 빛을 물체에 조사한 뒤 입체적인 물체로부터 반사돼 이미지 센서로 돌아온 빛의 패턴이 왜곡된 정도를 소프트웨어를 통해 분석해 3D 이미지를 획득하는 방식. 실외와 같이 외부의 빛이 강한 조건에서는 정확한 동작이 어렵고, 소프트웨어의 부담이 비교적 높다는 단점이 있음.

I-ToF 방식은 특정 주파수로 변조된 레이저를 이용해 물체로부터 반사돼 되돌아온 신호와의 위상 차이를 측정함으로써 물체까지의 거리를 측정하는 방식이다. 기존 포토다이오드(Photodiode, PD) 소자를 이용해 비교적 수월하게 구현할 수 있다는 장점이 있으나, 광검출 소자의 낮은 효율로 인해 수 미터 이상 떨어진 물체와의 거리를 측정하기가 매우 어렵다는 한계점이 있다.

D-ToF 방식은 펄스 레이저를 사물에 조사해 반사된 펄스 신호들이 이미지센서에 도착하는 시간을 측정함으로써 물체까지의 거리를 탐지하는 방식이다. 수십 혹은 수백 미터 이상 떨어진 물체와의 거리도 측정할 수 있다는 매우 큰 장점을 가지고 있으나, 이를 위해서는 초고효율 특성을 제공하는 소자인 단광자눈사태다이오드(Single-Photon Avalanche Diode, SPAD)가 필수적으로 요구된다.

차세대 3D 이미지 센서 핵심 기술은 ‘D-ToF’

초창기 애플 아이폰 X의 전면부 카메라에 사용된 3D 이미지센서에는 구조 광 방식이 활용됐으나, 이후 I-ToF 방식의 초소형 이미지센서가 개발돼 다양한 스마트폰에 적용되고 있다. 특히 이미지센서 시장의 강자 소니가 2015년 소프트키네틱 시스템즈(Softkinetic Systems S.A.) 인수를 통해 관련 기술력을 조기 확보한 뒤, I-ToF 방식 3D 이미지센서(이하 I-ToF 센서) 시장에서 높은 점유율을 확보한 점은 분명 눈여겨보아야 할 부분이다.

하지만 앞으로는 D-ToF 방식 3D 이미지센서(이하 D-ToF 센서)의 중요성이 더 커질 전망이다. 스마트폰에 탑재되는 3D 이미지센서의 수가 크게 증가할 것으로 예상되는 가운데, 전면부보다는 다양한 응용이 가능한 후면부에 더 많은 3D 이미지센서가 탑재될 것으로 전망되기 때문. 후면부에 탑재되는 3D 이미지센서의 경우 5~10미터 이상의 비교적 긴 거리를 측정할 수 있어야 해, 이를 위해 최근 SPAD 기반의 D-ToF 기술이 경쟁적으로 연구개발되고 있다.

실제로 Markets and Markets는 2020년 ToF 센서 시장에 대해 발표한 조사자료6)에서 I-ToF 센서가 2025년까지 약 11%의 연평균 성장률을 기록하는 동안 D-ToF 센서는 그 3배가 넘는 약 37.3%의 연평균 성장률을 달성할 것으로 전망했다.

6) ‘Time-of-Flight (ToF) Sensor Market – Global Forecast to 2025’ by Markets and Markets(2020)

지난해 애플은 스마트폰 업체 중 가장 먼저 아이패드 프로와 아이폰 12 프로 후면부에 D-ToF 센서를 탑재했다. 애플은 이를 개발하기 위해 소니의 SPAD 소자·공정 기술을 사용했고, 기존 I-ToF 센서와의 차별점을 강조하기 위해 이를 D-ToF가 아닌 ‘LiDAR(Light Detection and Ranging) Scanner’라고 명명했다.

애플의 LiDAR Scanner는 5미터의 측정 거리를 제공하며 I-ToF 센서보다 우수한 성능을 자랑한다. 애플은 이 같은 강점을 활용, 아이폰 12 출시 당시 3D 이미지를 활용한 다양한 증강현실(Augmented Reality, AR) 기반 앱과 기능을 전면에 내세웠다.

지난해 Yole Developpement는 애플이 LiDAR Scanner 기반 스마트폰을 출시함에 따라 2021년 3D 이미지센서 시장은 크게 확장될 것으로 예측했다. 이와 함께 Yole Developpement는 2024년부터는 자율주행자동차용 LiDAR 센서가 3D 이미지센서 시장 성장의 주 원동력이 될 것이라고 전망했다.7)

7) ‘CMOS Camera Module Industry for Consumer & Automotive 2020’ by Yole Developpement(2020)

실제로 자율주행자동차용 LiDAR 센서는 우수한 분해능(Resolution)8) 특성과 함께 정밀한 3D 이미지를 제공해 자율주행 기술의 핵심 요소로 각광받고 있다. 다만, 현재까지 개발된 차량용 LiDAR 센서는 대부분 모터를 사용한 기계식 스캔(Mechanical Scanning) 방식으로 크기가 매우 크고 가격이 비싸 양산 및 상용화에는 부적합하다는 평가를 받고 있다. 이에 △중장거리 측정이 가능하고 △센서 크기를 소형화할 수 있을 뿐만 아니라 △가격적인 측면에서도 이점이 있는 D-ToF 기반 LiDAR 센서 개발에 대한 시장의 요구가 커지고 있다.

8) 분해능(Resolution): 서로 떨어져 있는 두 물체를 구별할 수 있는 능력

나아가 로봇, 드론 등 차세대 자율형 이동체 응용 분야에서도 D-ToF 센서의 역할이 확대될 것이라는 사실도 어렵지 않게 예상할 수 있다. 아마존(Amazon)이 추진 중인 창고용 물류 로봇 상용화, 드론 배달 서비스 등이 대표적인 사례다. 또한 D-ToF 센서는 공장 자동화(Automation) 분야에서도 필수 기술로써 평가되고 있다.

‘D-ToF 센서의 필수 요소’ SPAD 기술의 현주소는?

단광자눈사태다이오드(Single-Photon Avalanche Diode, SPAD)는 소자의 매우 높은 이득(Gain) 특성으로 단광자(Single Photon)9)를 검출할 정도로 효율이 극도로 높은 차세대 반도체 광 소자다.

SPAD에서는 소자의 항복 전압(Breakdown Voltage)10)보다 높은 전압을 걸어주었을 때 매우 큰 전기장(Electric Field)에 따라 자유전자(Carrier)가 가속돼 원자와 강한 충돌을 일으키고, 이에 따라 원자에 구속돼 있는 전자가 방출돼 자유전자의 수가 급속도로 증가하는 ‘충격 이온화(Impact Ionization)’ 현상이 일어난다. 이것을 눈사태 증폭(Avalanche Multiplication)이라 하며, 이 효과로 인해 외부에서 이미지 센서로 조사된 광자(Photon)로 인해 생성되는 자유전자의 수가 매우 크게 증가한다. 즉, 주변 환경이 매우 어둡거나 아주 멀리서 빛이 조사돼, 이미지 센서에 아주 미세한 수준의 광자만 들어왔다고 하더라도 이 광자를 증폭해 아주 많은 광자가 들어온 것처럼 인식할 수 있다는 의미다.

또한, SPAD 소자는 광자가 소자로 들어왔을 때 출력으로 디지털 펄스(Digital Pulse)를 내보내는 특성이 있기 때문에, 이를 이용한 비행시간 측정이 용이하다. 이뿐만 아니라, 아주 미세한 시간차를 잡아낼 수 있는 특성도 갖고 있어 ㎜~㎝ 범위에서도 ‘심도 분해능(Depth Resolution)’11)을 얻을 수가 있다.

9) 단광자(Single Photon): 고전적 전자파에 대비되는 양자화된 전자파인 빛의 단일 입자를 의미함.
10) 항복 전압(Breakdown Voltage): PN 접합에 가하는 역방향 전압의 크기가 어느 한계를 넘으면 전자 사태(Avalanche)를 일으켜 큰 전류가 흐르게 되는데, 이때의 전압을 항복 전압이라고 함.
11) 심도 분해능(Depth Resolution): 아주 밀접한 차이로 서로 떨어져 있는 두 물체를 구별할 수 있는 능력.

SPAD 기반 D-ToF 센서의 경우 스위스의 로잔연방공과대학교(EPFL), 영국의 에든버러대학교(University of Edinburgh) 등에서 선도적으로 연구개발을 하며 성공적으로 그 성능을 검증해왔다. 또한 이러한 기술을 ST마이크로일렉트로닉스(STMicroelectronics)에서 발 빠르게 채택해 근접 센서(Proximity Sensor)를 출시하고, 다양한 스마트폰에 그 제품을 탑재해왔다.

이미지센서에서 성능 향상을 위해 후면조사(Backside Illumination, BSI) 방식으로 연구개발이 진행돼 왔듯이, SPAD 기반 D-ToF 센서 분야에서도 선도 그룹들을 위주로 3D-stacked BSI SPAD array 연구가 진행돼 왔다.12) 또한 앞서 언급한 바와 같이 최근 애플과 소니가 협업해 더 우수한 성능의 3D-stacked BSI SPAD 기반 D-ToF 센서를 성공적으로 개발하고, 애플의 스마트폰 후면 카메라에 탑재하고 있다.

국내에서도 현재 한국과학기술연구원(KIST)의 차세대반도체연구소 연구진이 D-ToF 센서의 필수 요소인 SPAD 기술을 선도적으로 연구해오며 관련 원천 기술을 확보하고 있으며, 차세대 3D-stacked BSI D-ToF 센서에 대한 연구개발도 적극적으로 수행하고 있다.

소니는 관련 원천기술을 확보하고 있던 소프트키네틱 시스템즈를 인수했기에 I-ToF 센서 시장을 조기에 장악할 수 있었다. 이와 마찬가지로 SK하이닉스와 같이 우수한 기술력과 인프라를 갖추고 있는 국내 이미지센서 및 반도체 기업들이 핵심 원천기술을 확보하고 있는 국내 연구진들과 적극적으로 공동 연구개발을 진행한다면, 추후 D-ToF 센서 및 LiDAR 센서 시장을 선도하며 전세계적으로 매우 큰 시장을 확보할 수 있을 것으로 기대된다.

12) 관련 레퍼런스
https://doi.org/10.1109/IEDM.2016.7838372
https://doi.org/10.1109/IEDM.2017.8268405
https://doi.org/10.1109/ISSCC.2018.8310201
https://doi.org/10.1109/ISSCC.2019.8662355
https://doi.org/10.1109/JSSC.2019.2938412
https://doi.org/10.1109/IEDM13553.2020.9371944
https://doi.org/10.1109/ISSCC42613.2021.9365961
https://doi.org/10.1109/ISSCC42613.2021.9366010

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/next-gen-3d/feed/ 0
스마트폰 시장, 멀티 카메라 경쟁 가속_모바일 중심 CIS 수요 성장세 이어질까 /smartphone-market-multi/ /smartphone-market-multi/#respond Tue, 12 May 2020 15:00:00 +0000 http://localhost:8080/smartphone-market-multi/ 04.jpg

▲ CIS는 카메라 1개당 1개씩 사용된다(사진 출처 : 키움증권 리서치센터)

스마트폰 등에 사용되는 최신 디지털카메라의 모듈 구성은 일반적으로 CIS(CMOS Image Sensor), ISP(Image Signal Processor), DRAM(Dynamic random access memory)으로 구성된다. 이 중 CIS는 피사체의 정보를 읽어 전기적 신호로 변환해주는 반도체다. 과거 CCD(Charge Coupled Device)라는 제품과의 경쟁에서 고전했으나, 최근 성능이 개선되면서 저전력 특성과 원가 우위를 바탕으로 스마트폰과 자동차 등에 폭넓게 사용되고 있다.

인포01수정2.jpg

CIS의 주요 산업별 수요 비중은 2018년 기준 Mobile 68%, Compute 9%, Consumer 8%, Security 6%, Automotive 5%, Industrial 4%로 Mobile 비중이 압도적이다. 향후 Mobile, Automotive, Industrial 부문을 중심으로 성장해, 2018년 137억 달러 수준이던 시장 규모는 2022년 190억 달러까지 커질 것으로 보인다.

인포02수정2.jpg

가장 큰 비중을 차지하고 있는 Mobile 부문은 스마트폰 내 멀티 카메라의 탑재 비중이 증가함에 따라 가장 큰 폭의 성장세를 기록할 전망이다. 스마트폰 후면에는 듀얼 카메라 이후 트리플 카메라가 채택되기 시작했고, 전면 카메라까지 더하면 총 5개의 카메라가 채택되고 있다. 이는 스마트폰 업체들이 광학 줌을 비롯한 다양한 카메라 기능을 제품 차별화 포인트로 제공하고 있기 때문.

앞으로도 증강현실(AR, Augmented Reality), 3D SLAM(Simultaneous Localization and Mapping, 로봇이 외부 도움 없이 부착된 센서만으로 주변환경의 지도를 작성하는 기술로, 자율주행을 위한 핵심 기술로 꼽힌다), 실시간 시야 추적(Eye tracking) 등의 기능을 탑재하기 위해 카메라 수를 계속 늘릴 것으로 전망된다. 이에 따라 스마트폰 내 CIS 탑재량은 2018년 36억 개에서 2023년 54억 개로 큰 폭으로 성장할 것으로 기대된다.

인포03수정01.jpg

기술 측면에서 봤을 때 최근 전면 디스플레이 채택률이 증가함에 따라 스마트폰의 전면 카메라 모듈은 점점 작아지는 추세다. 이를 위해서는 Color Filter, Photo Diode, 증폭기로 구성된 CIS의 집적화가 필수적이다. 후면 카메라 모듈은 화소를 높이면서 특수 기능을 탑재하는 방향으로 발전할 것으로 예상된다. 특히 최근 화소 수가 급증하고 있는데, 이를 위해서는 CIS의 픽셀(pixel) 집적도 향상이 선행돼야만 한다. 이에 따라 기술적인 측면에서는 스마트폰 전·후면 카메라 모두 CIS의 집적도 향상이 더욱 중요해질 것으로 예상된다.

이에 더해 초고속 카메라에는 CIS, ISP, DRAM을 통합한 패키징 기술이 도입되고 있는데, 이는 중장기적으로 DRAM과 CIS를 모두 생산하는 업체에 유리한 변화로 보인다.

01.jpg

▲ 최신 3단 적층(CIS + ISP + DRAM) 이미지센서

공정 측면에서 봤을 때 CIS는 기존 8인치 웨이퍼(wafer)를 넘어 12인치 웨이퍼로 수요 변화가 일어나고 있다. 또한, 화소 수가 4,000만 개 이상으로 증가하기 시작하면서 기존 90nm(마이크로미터)에서 32nm 이하로의 공정 변화도 이뤄지고 있다.

특히 CIS의 제조 공정은 대부분 DRAM과 유사하고 고화소 제품 공정에 DRAM의 트렌치 기술이 적용되고 있어, 시간이 지날수록 DRAM 업체들의 원가 우위가 발생할 가능성이 크다.

실제 삼성전자의 ISOCELL은 Pixel 간의 빛 간섭 현상을 제거하기 위해 DRAM의 공정 기술을 적용했고, 32nm급으로 공정 미세화도 진행 중이다. 메모리 반도체 세계 1, 2위인 삼성전자와 SK하이닉스는 DRAM 기술이 우월한 만큼 시간이 지날수록 소니 등 CIS 선두 업체와의 기술 격차를 좁혀 나아갈 것으로 기대된다.

박유악_2수정.jpg

▲ DRAM 트렌치 기술을 적용해 이미지센서 픽셀 크기가 작아질수록 컬러 필터 간 간섭이 심해져 높은 화소 수에 비해 덜 선명한 이미지가 도출되는 문제점을 개선할 수 있다. 기존 금속 격벽을 신소재로 제작된 격벽으로 교체함으로써, 신소재로 제작된 격벽이 빛을 반사해 특정 컬러 필터 영역으로 들어온 빛이 다른 컬러 필터 영역으로 새어나가지 않도록 막아주기 때문이다.

CIS의 Capacity도 증설되고 있다. SK하이닉스는 일부 라인을 CIS로 전환 배치하고 있으며, 올 연말부터 성과가 한층 더 가시화 될 것으로 기대된다.

삼성전자도 기존 8인치 CIS 라인 외에 12인치 라인의 Capacity를 지속적으로 확대하고 있는데, 대부분 노후화된 DRAM 라인을 활용하고 있다. 2018년 11라인을 시작으로 2020년에는 13라인을 CIS로 전환, 배치할 예정이다.

업계 1위 소니(Sony)는 일본 내 12인치 Capacity를 계속 늘려가고 있어, 올 하반기부터는 시장 점유율 경쟁이 치열해질 전망이다. 신규 라인을 구성해야만 하는 소니보다는 기존 DRAM 라인을 전환, 배치하고 있는 SK하이닉스와 삼성전자의 제품이 원가 경쟁력 측면에서 우월할 것으로 예상돼, 시장점유율 확보 경쟁에서 유리할 것으로 기대된다.

※ 이 기고문은 키움증권 리서치센터가 신뢰할 수 있는 자료 및 정보를 활용해 기고자의 주관적 견해를 바탕으로 작성된 참고자료이며, 그 정확성이나 완전성은 보장할 수 없습니다. 유가증권 매매에 관한 의사결정은 전적으로 투자자 자신의 판단과 책임하에 이루어져야 하며, 키움증권 리서치센터는 본 기고문의 내용에 따른 일체의 투자행위 결과에 대해 어떠한 책임도 지지 않습니다.

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/smartphone-market-multi/feed/ 0
CMOS 이미지센서(CIS) 르네상스… 멀티카메라 넘어 AI까지 /cmos-image-sensor/ /cmos-image-sensor/#respond Wed, 27 Mar 2019 15:00:00 +0000 http://localhost:8080/cmos-image-sensor/

스마트폰의 ‘눈’ CMOS 이미지센서(CIS)의 르네상스가 도래했습니다. 스마트폰 1대에 카메라 5개 이상이 들어가는 시나리오가 어느새 현실이 되었습니다. 지난해 화웨이가 세계 최초로 후면 트리플 카메라를 포함해 총 4대의 카메라를 장착한 ‘P20프로’를 출시했고 이어 삼성전자, LG전자가 전·후면을 합쳐 ‘펜타(5개)’ 카메라를 선보였습니다. 올해는 카메라가 무려 6개 달린 스마트폰이 나오기도 했죠. 이에 따라 이미지센서의 수요도 폭발적으로 급증하면서 첨단기술을 확보하기 위한 경쟁이 더욱 치열해지고 있습니다.

멀티카메라 전성시대, 물리적 한계를 뛰어넘어라

998524475C92F3C016.jpeg

이미지센서는 쉽게 말해 카메라의 필름 역할을 하는 반도체를 뜻합니다. 피사체 정보를 읽어 전기적인 영상신호로 변환하기 때문에 카메라의 ‘필름’으로 비유되곤 합니다. 렌즈를 통해 들어온 빛을 전기적 디지털 신호로 변환해주기 때문에 우리가 스마트폰으로 사진을 찍은 후 바로 화면에서 사진을 확인하거나 삭제할 수 있는 것이죠.

최신 스마트폰을 살 때 가장 중요하게 보는 스펙은 카메라 기능이죠. 소비자들의 기대수준도 연일 높아지고 있습니다. 특히 최근 스마트폰의 트렌드는 ‘홀 디스플레이(hole-in display)’, ‘노치 디스플레이(notch-display)’ 등으로 화면 크기를 최대한 늘리는 디자인이 대세입니다. 이를 위해선 카메라 모듈의 크기를 가능한 줄여야 합니다. 이미지센서도 작아져야 하고, 픽셀 크기도 줄어들어야 합니다. 현재 업계에서 양산되고 있는 2000만 화소 이미지 센서의 경우, 빛을 담는 2000만개의 픽셀이 들어갑니다. 업계는 픽셀 크기를 1.0㎛(마이크로미터)까지 줄였고 2020년 이후에는 0.9㎛를 목표로 하고 있습니다.

여기서 픽셀이란 CIS를 구성하는 셀 단위를 말합니다. 각 픽셀은 받은 빛의 세기만큼 전기적 신호를 내보내고 이 전기신호는 R(레드) G(그린) B(블루)로 출력됩니다. 이 RGB가 조합돼 디지털 이미지가 형성되는 것이죠. 이미지센서 성능의 차이는 얼마나 많은 신호를 담아내느냐에 좌우됩니다. 따라서 픽셀 단위 크기에서 받을 수 있는 신호의 양을 늘리는 것이 업계의 과제인데요. 화소수를 늘리기 위해 칩 크기를 키울 수는 없기에, 칩 크기를 줄이면서도 고화질의 카메라 성능은 그대로 유지해야 하는 기술이 요구됩니다.

동일한 화소 수의 센서 모듈을 더 작게 만들기 위해서는 화소의 크기를 줄여야 하지만 화소 크기가 작아지면 흡수하는 빛의 양이 감소해 화질이 떨어집니다. 더 작아진 픽셀로도 이전 세대의 큰 픽셀 수준의 성능이 가능하도록, 물리적 한계를 뛰어넘어야 했죠. 이에 업계는 각 픽셀을 서로 격리시켜 간섭 현상을 최소화하는 ‘아이소셀(ISOCELL)’ 공정 기술을 적용해 빛의 손실을 줄이는 데 성공하기도 했습니다.

D램부터 AI까지, 첨단기술 확보 전쟁 불붙었다

▲ 2Gb LPDDR4 D램을 적층하여 만든 CMOS 이미지센서 (출처: 삼성전자)

더 작은 첨단 카메라를 위한 기술 혁신은 계속되고 있습니다. 이미지센서에 메모리반도체 기술을 접목, D램을 탑재하는 기술도 나왔습니다. 기존 센서 하단에 D램을 탑재한 ‘3 Stack’ 구조로 데이터 전송 속도를 획기적으로 높인 기술입니다. 이미지센서에서 AP(애플리케이션 프로세서)로 이어지는 데이터 전송 과정 중간에 D램이 들어가 처리속도를 높이는 역할을 합니다. 방대한 프레임 데이터를 D램에 저장해 왜곡 없는 고속촬영이 가능하죠. 이를 통한 고속 카메라는 일상생활뿐 아니라 스포츠나 자동차 분야에서 수요가 급증하고 있습니다. 특히 빠른 차의 움직임을 잡아내야 하는 ‘오토모티브’에서 활용도가 높은데요. 자율주행차 시대가 성큼 다가오면서 전장 분야 이미지센서 수요는 더욱 급격히 늘고 있는 추세입니다. 2023년 구현될 레벨4 이상 자율주행차에는 10개 이상의 카메라가 들어간다고 합니다.

990FC03A5C92F3690F.jpeg

▲ LG이노텍이 개발한 3D센서인 ToF모듈 (출처: LG이노텍)

첨단센서도 각축을 벌이고 있습니다. 애플과 삼성전자, LG전자, 화웨이, 노키아 등 글로벌 스마트폰 제조사들도 앞다퉈 3D센서를 탑재하고 있죠. 3D센서의 강점은 얼굴이나 손 등의 형상과 움직임을 감지해 특정 명령을 수행하기 때문에 화면을 터치하지 않고도 조작할 수 있다는 점입니다. 특히 물체에서 반사된 광원의 시간을 측정, 거리 분석으로 입체적인 인식이 가능한 ToF(Time of Flight) 센서가 대세로 자리 잡았습니다.

99DCB1385C92F4FC17.jpeg

▲LG전자 G8 씽큐 (출처: LG전자)

ToF는 피사체를 향해 발사한 빛이 튕겨져 돌아오는 시간으로 거리를 계산해 사물의 입체감과 공간 정보, 움직임 등을 인식하는 최첨단 3D 센서입니다. 2017년 애플이 출시한 아이폰X의 3D센서 트루뎁스 카메라에는 SL(Structured Light) 방식이 적용되었으나, ToF보다 측정 거리가 짧다는 한계가 있었죠. 현재 대부분의 스마트폰 제조사들이 SL 방식의 한계를 뛰어넘은 ToF를 최신 모델에 적용하고 있습니다. ToF는 생체 인증이나 동작 인식, 증강현실(AR), 가상현실(VR) 기능 등을 구현할 수 있습니다. 얼굴을 인식하고 자신만의 아바타를 만들거나 주변 환경의 입체구조를 인식해 AR과 VR 콘텐츠에 활용됩니다.

또한 빛이 부족한 상황에서도 사물을 정확하게 인지할 수 있도록 IR(적외선) 영역을 통합하는 RGB+IR 센서와 동작을 인식하는 비전센서 개발도 활발합니다. 대표적으로 DVS(Dynamic Vision Sensor)는 빛의 변화량에 반응하는 이벤트(Event) 기반 초고속 모션센서로 위치 변화만 감지하는 기술입니다. 움직임만 포착하고 사람의 얼굴은 나오지 않기 때문에 사생활 보호에 강점이 있어 감시 및 구조카메라와 가상현실(VR), 자율주행, 동작인식과 위험감지 기술 등 다양한 분야에서 활용됩니다.

미래를 향한 반도체 업계의 궁극적 목표는 AI(인공지능) 센서입니다. 5억 7600만 화소에 달하는 인간의 눈을 넘어서는 기술을 만들겠다는 것이죠. 사람이 잘 보지 못하는 어두운 밤에도 전방의 장애물이나 사람의 움직임을 인지할 수 있고, 자율주행이 가능하도록 위치 변화와 관심지역(ROI·Region Of Interest)을 실시간으로 감지해 처리하는 기술에 주목하고 있습니다. 빛이 거의 없는 어둠에서도 고속의 움직임을 감지하는 이미지센서를 만들면 특히 자율주행 분야에서 획기적인 기술 진보가 가능해 업계의 연구가 이어지고 있습니다.

스마트폰은 매우 빠른 속도로 듀얼카메라에서 트리플 카메라, 쿼드러플 카메라로 진화해왔습니다. 이 같은 개발 속도라면 한 사람이 보유한 카메라가 20대가 넘을 것이라고 업계는 관측합니다. 각종 IT 제품을 비롯해 앞으로 상용화될 자율주행차 등을 고려하면 앞으로 이미지센서에 대한 수요는 끊임없이 늘어날 전망입니다.

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.


]]>
/cmos-image-sensor/feed/ 0
세상과 소통하는 디지털 ‘눈’ 컴퓨터비전의 핵심 이미지센서 /core-image-sensor/ /core-image-sensor/#respond Mon, 06 Mar 2017 15:00:00 +0000 http://localhost:8080/core-image-sensor/

최종 메인이미지.png

CMOS 이미지센서(CIS)는 이제 단순한 센서가 아닙니다. 자율주행차부터 뉴로모픽 칩에 이르기까지 다양한 영역에 걸쳐 중요성이 높아지고 있는데요. 이미지센서는 빛이라는 아날로그 요소를 디지털로 바꿔 재창조하는데 있어 핵심적인 역할을 하고 있습니다. 오늘은 CIS 기술과 트렌드, 그리고 앞으로의 발전 방향을 두루 살펴보도록 하겠습니다.

비전컴퓨팅 핵심, 이미지센서의 중요성

1 (30).png

비나 눈이 내리거나 구름이 잔뜩 끼어있어 날씨가 짓궂지 않다면 아침에 동쪽에서 떠오르는 찬란한 태양을 볼 수 있습니다. 어떻게 보면 자전으로 인해 매일 의미 없이 태양이 뜨고 지는 것처럼 보이지만 사실 지구의 전부라고 해도 과언이 아닙니다. 태양계의 중심에 있는 태양은 에너지의 근원이자 사실상 우리가 현재 살고 있는 세상의 알파와 오메가입니다. 대부분의 에너지가 여기서 나오고 있기 때문이죠. 그 중에 하나가 빛입니다.

사람이 눈으로 보는 모든 사물은 고유의 ‘색’을 가지고 있습니다. 그런데 이 색은 사실 빛이 물체의 표면에 반사된 정도를 뇌가 느끼는 정도를 뜻합니다. 잘 알려진 것처럼 빛은 파장을 가지고 있고 이 가운데 사람의 눈으로 볼 수 있는 영역을 ‘가시광선’이라고 합니다.

빛의 파장이 짧으면 자외선, 반대로 길면 적외선으로 이 영역은 눈으로 볼 수 없죠. 바꿔 말하면 눈으로 보이는 색은 가시광선의 향연입니다. 그래서 어떻게 보면 카메라와 같은 제품은 사진을 ‘찍는’ 행위를 위함이 아니라 빛을 얼마나 잘 ‘다루느냐’에 더 가깝다고 볼 수 있겠네요. 빛을 잘 전달하기 위한 렌즈도 마찬가지입니다.

전 세계적으로 연간 15억대 이상 출하되고 있는 스마트폰도 빛을 잘 다룰 수 있어야 인기를 끕니다. 바로 카메라 성능이죠. 이를 결정하는 요소에는 여러 가지가 있지만 핵심은 ‘이미지센서’입니다. 사람으로 치면 ‘망막+시신경’으로 해상도와 화질을 책임지는 역할을 합니다. 스마트폰이 대중화되면서 불어 닥친 셀피(Selfie, 셀프 카메라) 열풍에는 이미지센서의 발전이 뒷받침된 덕분입니다.

CCD, 노벨상으로 가치를 인정받다

2 (35).png

▲ CCD는 노이즈가 적어 천체망원경에도 쓴다. 당연히 CIS보다 크기가 커질 수밖에 없다.

먼저 이미지센서를 말할 때 빠지지 않고 언급해야 하는 것이 ‘전하결합소자(Charge-Coupled Device, CCD)’ 입니다. 사실 처음부터 CCD라는 단어가 등장한 것은 아니었습니다. ‘정보저장소자(Information Storage Device, ISD)’라는 이름으로 조지 스미스와 윌러드 보일이 벨연구소에서 개발해 지난 1971년 발표한 것이 시작입니다. 훗날인 2009년 두 사람은 노벨상을 받게 되는데, 아이러니하게도 이미지센서와는 거리가 있었고 이 기능을 접목한 마이클 톰세트가 1972년 특허로 등록합니다.

이미지센서의 개념을 제시한 사람이 아닌 조지 스미스, 윌러드 보일이 노벨상을 수상할 수 있었던 이유는 기초 개념을 제시한 덕분입니다. CCD는 가장 겉면에 우물구조(전자를 담는 그릇)의 반도체가 마련되어 있고 실리콘산화막 위에 금속배선층을 일정한 간격으로 배치하는 구조로 되어 있습니다. 밖에서 빛이 들어오면 전자가 발생하고, 이 전자를 우물구조로 끌어들인 다음 반복해서 금속배선층에 전압을 걸어주면 전하량을 측정할 수 있는 원리죠. 여기서 빛을 전자로 바꿔주는 영역을 ‘포토다이오드(PD)’라고 합니다.

CCD는 그 원리상 차례차례 우물을 비우고 채워가며 데이터를 전달합니다. 그러다보니 스미어(Smear)와 블루밍(Blooming) 현상이 발생하게 됩니다. 스미어 현상은 빛이 강하고 많이 들어올 때 발생하는데요. 앞서 설명한 우물에 전자가 넘치는 경우를 말합니다. 태생적으로 한쪽 방향으로만 데이터가 이동하다보니 길쭉한 선이 사진에 찍히게 되죠. 보통 세로줄이 나오는데 이는 주로 수평보다는 수직으로 연결되어 있기 때문입니다.

블루밍 현상은 밝은 빛을 중심으로 원형으로 퍼지는 현상을 말하는데 스미어 현상과 마찬가지로 우물구조의 한계로 인해 나타납니다. 이런 문제를 해결하는 방법은 간단합니다. 우물에서 또 다른 우물로 빨리 전자를 옮기거나, 우물 자체의 깊이를 더 파면 됩니다. 그런데 이게 쉽지 않습니다. 구조가 복잡해지고 가격도 비싸지니 그렇습니다.

몇 가지 단점이 있긴 했지만 CCD는 첫 등장 이후 얼마 지나지 않아 상용화에 성공했습니다. 지금이야 디지털 방식으로 사진을 찍는 게 당연하지만 당시만 하더라도 필름을 대신할 수 있다는 것 자체가 놀라운 일이었습니다. 이후로도 필름은 2000년대 중반까지 명맥을 이어가다가 지금은 쓰는 사람을 찾기가 어렵게 됐습니다. 도중에 CCD는 한계를 극복하기 위해 데이터 전송 방식을 바꾸고 빛의 삼원색인 레드(R), 그린(G), 블루(B)를 각각 담아내는 3CCD로 차별화를 시도합니다. 물론 가격은 무척 비쌌습니다.

새로운 반도체 기술의 접목

CCD가 득세하던 시절 조심스럽게 새로운 이미지센서가 쓰이기 시작합니다. 바로 상보형 금속산화 반도체(Complementary Metal–Oxide Semiconductor, CMOS)입니다. CCD가 우물구조를 이용했다면, CMOS는 빛을 전자로 바꿔주는 PD마다 트랜지스터가 마련되어 있어 곧바로 디지털 신호를 만들어낼 수 있습니다. 그런데 빛이 PD로 들어와서 디지털로 바뀌는 과정에서 손실이 발생합니다. 처음부터 디지털 신호를 전송하기 위해 설계됐으니 세세한 신호를 분별할 필요가 없었죠.

원래 신호, 바꿔 말하면 빛에서 만들어진 전자를 디지털로 바꾸려면 따로 변환기가 있어야 합니다. 이 역할을 아날로그 디지털 컨버터(ADC)가 담당합니다. 반대의 경우는 디지털 아날로그 컨버터(DAC)가 되겠죠. CMOS의 ADC는 CCD와 달리 PD에 하나씩 달라붙어 있는데 모두 같은 특성을 가지고 있지 못합니다. 쉽게 말해 약간씩 오차가 있어서 결과적으로 정확하게 전자를 전달하지 못합니다. 이때 노이즈가 발생하죠.

그럼에도 CMOS는 CCD보다 확실히 전기도 덜먹고 크기가 작으며, 결정적으로 가격이 싸다는 장점을 가지고 있었습니다. 처음부터 카메라와 같은 기기에 사용하지는 못했고 상대적으로 적용이 손쉬운 스캐너부터 쓰였습니다. 결과는 대성공이었죠. CCD를 내장한 스캐너보다 유리한 점이 많았으니까요.

초기 CMOS는 ‘전면조사형(Frontside illumination, FSI)’이 일방적이었습니다. FSI 방식은 마이크로렌즈와 RGB의 컬러필터를 거친 빛이 금속배선층에 가려 PD에 원하는 만큼 도달하지 않는 문제가 있습니다. 그래서 ‘후면조사형(Backside illumination, BSI)’ 설계를 도입하게 됩니다.

BSI는 수광부(빛을 받아들이는 부분)를 센서의 가장 윗부분으로 옮겨 수광율을 높인 것이 핵심입니다. 이미지센서는 빛을 많이 받아들일수록 더 성능이 좋아집니다. 하지만 최근 들어 BSI도 화소를 높이는 과정에서 픽셀과 픽셀 사이의 간격이 좁아짐에 따라 서로 간섭현상이 늘어나고 있어서 새로운 돌파구가 필요해지게 됐습니다

FSI에서 BSI로! 적층으로 발전하다

3 (32).png

▲ PDAF 기술을 내장한 CIS는 색의 대비(콘트라스트)로 초점을 잡는 기존 제품과 비교해 속도가 훨씬 빠르다.

BSI의 가장 큰 해결과제는 암전류(dark current) 개선에 있습니다. 말 그대로 빛이 닿지도 않았는데 전류가 흐르는 현상을 뜻합니다. 같은 크기(판형)에서 트랜지스터 집적도를 높여 해상도를 높이고 성능을 개선해왔던 CMOS 이미지센서(CIS)의 한계이기도 합니다. 물론 판형을 더 키우면 어느 정도 문제를 해결할 수는 있겠지만 상업용 카메라라면 모를까 크기가 작은 스마트폰에서는 해결하기 어렵습니다.

4 (27).png

▲ 최신 CIS는 적층형으로 만들어 성능을 높이는 추세다.

몇 년 전부터 스마트폰 카메라의 화소수가 1600만 화소에서 크게 개선되지 않는 이유가 여기에 있습니다. 지금은 ‘위상 검출 자동초점(Phase Detection Auto Focus, PDAF)’이나 실리콘관통전극(Through Silicon Via, TSV)을 이용해 이미지 시그널 프로세서(ISP)와 CIS를 하나로 통합하는 적층 기술이 적극적으로 접목되는 추세입니다. PDAF 기술을 내장한 CIS는 색의 대비(콘트라스트)로 초점을 잡는 기존 제품과 비교해 속도가 월등히 빠릅니다. PDAF는 렌즈를 통해 들어오는 빛을 한 쌍으로 나누어 위상 차이를 비교함으로써 초점이 맞았는지를 판단해서죠.

새로운 유전체(誘電體, dielectric material)를 통해서 재료를 바꾸는 시도도 이어지고 있습니다. 산화알루미늄(Al2O3), 산화지르코늄(ZrO2), 산화하프늄(HfO2) 등이 대체 물질 후보로 물망에 오른 상태입니다. 특히 하프늄(Hf)과 산소(O)을 결합한 HfO2의 가능성을 눈여겨보고 있습니다. HfO2는 강유전체 메모리(Ferroelectric Random Access Memory, F램)의 핵심 재료 가운데 하나로 알려져 있습니다.

CIS 사업에 열의 보이는 SK하이닉스

이미지센서, 특히 CIS는 반도체 산업의 새로운 원동력으로 각광받고 있습니다. 스마트폰만 하더라도 처음에는 뒷면에 1개, 다음은 앞면에 1개를 더해 2개가 일반적이었으나, 최신 모델은 뒷면에 듀얼 카메라를 장착하는 추세입니다. 모두 3개의 CIS가 쓰이는 셈이네요. 자율주행차에서도 CIS는 핵심입니다.

시장조사업체 욜디벨로프먼트에 따르면 오는 2030년까지 자동차에 탑재되는 센서는 29개 이상에 달하고 관련한 전체 시장규모는 360억달러(약 40조6800억원)에 육박할 전망이라고 예측했는데요. 이 가운데 서라운드 카메라의 시장규모가 87억달러(약 9조8300억원)으로 가장 덩치가 컸습니다. 그만큼 널리 쓰인다는 이야기입니다.

몇 년 전부터 SK하이닉스는 CIS 사업의 중요성을 고려해 경쟁력 강화에 나서고 있습니다. 현재는 200mm 웨이퍼로만 생산 중에 있지만 고화소 경쟁력을 갖추기 위해 300mm 웨이퍼로도 양산한다는 계획입니다. 아직 큰 도약까지는 아니지만 차근차근 기초부터 다시 쌓아올리고 있을 정도로 진지합니다. D램, 낸드플래시에 이어 새로운 먹거리로 자리매김해 반도체 강국의 위상을 한층 높이기 바라며 지금도 묵묵히 고군분투하고 있는 연구원 여러분께 응원의 메시지를 보냅니다.

 
오늘 알아본 이미지 센서는 한마디로 요약하면 고도화 된 카메라의 화질 노이즈를 결정하는 눈이자 심장입니다. 1990년대 중반 디지털 카메라에 장착된 이후 스마트폰뿐만 아니라 드론, 보안카메라, 자동차, 로봇 산업 등 다양한 분야에 활용되며 주요부품으로 들어가고 있지요. 최근 이미지 센서의 기술이 향상되고 활용범위가 점차 확대되면서 관련 시장은 지속적인 성장을 보이고 있습니다. 앞으로 더 많은 분야에서 이미지센서를 응용한 제품개발이 활성화 될 것으로 전망되는데요. 오늘보다 내일이 더 기대되는 이미지 센서, 과연 미래에는 어떤 형태로 발전을 거듭할 지 궁금해집니다.

*  본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]> /core-image-sensor/feed/ 0