이수환 – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Fri, 20 Dec 2024 01:53:01 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png 이수환 – SK hynix Newsroom 32 32 나노 세계의 건축학개론… SK하이닉스, 3D 낸드 신영역을 개척하다! /architecture-of-the-nano-world/ /architecture-of-the-nano-world/#respond Tue, 31 Jul 2018 15:00:00 +0000 http://localhost:8080/architecture-of-the-nano-world/ 3D낸드신영역 - 복사본.jpg

낸드플래시는 대표적인 비(非)휘발성 메모리입니다. 반대로 D램은 휘발성 메모리고요. 말 그대로 전원이 꺼졌을 때 데이터를 날리지 않고 저장할 수 있느냐 없느냐의 차이죠. 서로 다른 두 메모리는 공통점도 있습니다. 바로 성능을 높이기 위해 3차원(3D) 기술을 활용했다는 사실입니다. D램은 커패시터, 낸드플래시의 경우 셀(Cell)을 평면(2D)이 아닌 수직으로 쌓아 용량을 늘립니다. 3D라는 관점에서 바라보면 낸드플래시는 D램보다 훨씬 빠르게 발전하고 있습니다. 반도체 집적회로의 성능이 24개월마다 2배로 증가한다는 ‘무어의 법칙’을 스스로 증명하고 있다는 생각마저 듭니다. 물론 언젠가 한계에 다다르겠지만 지금은 아닙니다. ‘더블스태킹(Double Stacking)’ 혹은 ‘멀티 티어(Multi Tiers)’로 부르는 다(多)층 구조가 등장한 덕분입니다.

빅데이터 시대, 3D 낸드플래시의 필요성

Untitled-2.jpg

▲ 3D 낸드플래시 내부 구조는 마치 건물의 뼈대와 비슷하다.

잘 알려진 것처럼 3D 낸드플래시는 2D로 펼쳤던 셀을 수직으로 쌓는 기술을 활용한 제품입니다. 덕분에 미세공정의 한계를 극복하고 용량을 빠르게 끌어올릴 수 있었습니다. 우스갯소리로 ‘다다익램’이라는 말이 있습니다. 많으면 많을수록 좋다는 뜻의 ‘다다익선(多多益善)’과 램(RAM)의 합성어죠. 메모리는 클수록 좋다는 의미입니다.

특히 낸드플래시는 쓰임새가 D램과 같은 주메모리가 아닌, 하드디스크드라이브(HDD)와 같은 보조저장장치라는 점을 떠올려야 합니다. 오래 전 컴퓨터는 보조저장장치로 펀치카드(천공카드)와 같은 종이를 사용했습니다.

광학 마크 인식(Optical Mark Recognition, Optical Mark Reading, OMR)카드와 같다고 보면 됩니다. 시기나 종류에 따라 조금씩 차이는 있지만 보통 80자를 횡렬(가로)로 입력할 수 있었는데, 종렬(세로)이 10줄이라면 800비트(Bit)를 저장할 수 있었죠. 바이트(Byte)로 바꾸면 100, 메가바이트(MB)로는 0.000095입니다. 당시는 이 정도로도 충분했죠.

이제는 온갖 빅데이터가 넘쳐납니다. 그래서 보조저장장치 용량이 클수록 좋습니다. 아무리 클라우드와 같은 수단이 발달한다고 해도 스마트폰, PC에 직접 저장해놓고 콘텐츠를 즐기는 게 가장 편리합니다. 낸드플래시 용량이 커져야 하는 이유가 바로 여기에 있죠.

CTF로 한계를 극복하다

Untitled-3.jpg

▲ 다층 구조를 통해 용량의 한계를 극복할 수 있다

3D 기술이 본격적으로 활용되면서 메모리 업계는 마치 성경의 바벨탑처럼 셀을 어떻게 하면 효율적으로 높게 쌓을 수 있을까를 고민합니다. 현재 SK하이닉스는 셀에 전하를 저장하는 게이트의 설계로 ‘차지 트랩 플래시(Charge Trap Flash, CTF)’를 사용합니다. CTF는 부도체에 전하를 저장토록 함으로써 셀과 셀 사이의 간섭 현상을 줄이고 간격을 좁힐 수 있다는 장점이 있습니다.

또한, 셀을 적층할 수 있도록 3차원 방식(원통형)으로 구조를 변경하고 드라이 에칭 기술도 사용합니다. ‘채널 홀 에칭(Channel Hole Etching)’이라고도 부르는 드라이 에칭은 메모리칩을 쌓고 수십억 개의 홀(구멍)을 뚫는 에칭(etching, 식각) 과정을 거친 후 이 속에 원통형 셀을 적층해 배치합니다. 셀을 묶은 어레이를 제어하기 위한 컨트롤 회로를 주변에 반드시 수평적으로 배치해야 하는 어려움이 있지만, 3D 낸드플래시의 성능을 높일 수 있는 좋은 방법입니다.

SK하이닉스는 지난 2010년 열렸던 국제전자소자미팅(International Electron Device Meeting, IEDM)까지만 하더라도 마이크론·인텔이 사용하고 있는 ‘플로팅게이트(Floating Gate, FG)’ 기반의 설계를 적용했습니다. CTF를 사용한 것은 향후 적층수를 높이기 위해서는 FG보다 유리하다고 판단한 것으로 보입니다. 따지고 보면 FG보다는 CTF를 사용하는 업체가 더 많습니다. 재료나 인터페이스 구현, 셀 어레이의 설계에는 조금씩 차이가 있지만요.

72단 넘어서 96단 노리는 SK하이닉스

Untitled-5.jpg

▲ SK하이닉스 72단 3D 낸드플래시는 ‘36×2’의 구조로 이루어져 있다.

반도체 기업은 제품을 어떻게 만드는지 구체적으로 밝히지 않습니다. 당연히 영업비밀입니다. SK하이닉스도 마찬가지지만, 미루어 유추하면 질화규소막(Si3N4)과 CTF를 통해 48단까지 개발하는 데 성공한 것으로 보입니다. 그렇다면 가장 최신인 72단은 어떨까요. 재미있게도 36단을 2개 이어붙여 구성했습니다.

어째서 64단이 아닌 72단을 내놨을까요. 그 이유는 5세대로 분류되는 96단(48×2개)이 오랫동안 사용될 가능성이 크기 때문으로 풀이됩니다. 시스템 반도체 미세공정으로 예를 들어보겠습니다. 지금까지 상용화된 애플리케이션 프로세서(AP) 가운데 가장 최신 공정은 10나노입니다. 올해 7/8나노가 예정되어 있습니다. 역사를 되짚어 보았을 때는 14/28나노가 정말 오랫동안 쓰였습니다.

3D 낸드플래시도 같은 맥락으로 이해하면 됩니다. 32/36단에서 48단까지는 빠르게 발전했습니다. 업체에 따라 차이는 있지만 48단이 주력이고 이후에 64/72단이 등장해 시장에 보급됐죠. 여기까지 걸린 시간을 따져보면 96단은 상당히 오랫동안 사용될 것으로 예상합니다. 아마도 SK하이닉스는 거의 비슷한 시기에 72단과 96단의 연구개발을 시작했을 겁니다. 96단은 48단을 2개 연결한 제품이기 때문입니다.

설계와 재료의 발전 속도로 보면 100단 이상의 제품은 한 번에 구멍을 뚫어 만들기가 쉽지 않습니다. 그래서 3D 낸드플래시는 96단에서 잠시 주춤거릴 수 있습니다. 이후에는 적층 속도를 상당히 빨리 높일 수 있으나, 적어도 2020년까지는 쉽지 않습니다. 마이크론·인텔이 만드는 96단은 32단을 3개 사용했을 정도입니다.

Untitled-4.jpg

▲ 단수가 높아질수록 WL, 절연 박막의 층을 얇게 만들면서도 셀의 정렬할 때 정밀도가 높아져야 한다.

계속해서 4개, 5개 이상을 붙이면 좋겠지만 시간과 돈이 많이 들어가므로 무작정 더블스태킹·멀티 티어 구조를 이용할 수 없습니다. 더불어 데이터를 읽고 쓰는 작업에 사용되는 워드라인(WL), 절연 박막의 층을 얇게 만들면서도 셀을 정렬할 때 정밀도를 한층 높여야 합니다.

따라서 96단 이후의 초고적층 3D 낸드플래시를 만들려면 64단 이상을 한 번에 뚫어 연결할 수 있는 기술이 필수적입니다. 그런데 SK하이닉스는 64단 제품이 없습니다. 다음 단계는 96단을 36/48단 제품처럼 만들 수 있어야 한다는 계산이 나옵니다. 당장은 아니지만 2021년, 혹은 2022년이면 어느 정도 성과가 나오지 않을까 생각됩니다.

 

4차 산업혁명 시대에는 온갖 데이터가 넘칩니다. 자율주행차는 1시간 동안 2테라바이트(TB) 이상의 데이터를 만들어냅니다. 네트워크 기업 시스코에 따르면 2016년 기준으로 클라우드 데이터센터의 트래픽은 6제타바이트(ZB)라고 합니다. 1ZB는 1000엑사바이트(EB)이고, 1EB는 104만8576TB입니다. 2021년의 트래픽은 19.5ZB라고 하니 가늠이 안 갈 정도로 엄청난 양의 데이터가 만들어지고 있는 셈입니다. 이런 데이터는 어딘가에 저장되어야 합니다. 이미 HDD는 1개의 제품에 용량 100TB의 시대를 시작했습니다. 앞으로 3D 낸드플래시의 용량이 얼마나 커질 수 있을지 궁금해집니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/architecture-of-the-nano-world/feed/ 0
생각의 속도를 능가하다! 두뇌보다 빨라진 메모리 HBM2의 노림수 /speed-of-thought/ /speed-of-thought/#respond Mon, 02 Jul 2018 15:00:00 +0000 http://localhost:8080/speed-of-thought/ 에서는 인간의 신경 체계와 같은 ‘디지털 신경망(Digital Nervous System)’이 언급됐습니다. 얼핏 인공지능(AI)과 비슷하지만, 조금 차이가 있습니다. ]]> 메인 최종 (3).jpg

빌 게이츠의 저서 <생각의 속도>에서는 인간의 신경 체계와 같은 ‘디지털 신경망(Digital Nervous System)’이 언급됐습니다. 얼핏 인공지능(AI)과 비슷하지만, 조금 차이가 있습니다. 핵심은 시공을 초월해 연결된 세계입니다. 이를 위해 비즈니스가 말 그대로 생각의 속도로 운영되어야 한다는 조건을 달았죠. 아무리 IT 기기가 발전하더라도 사람보다 빠르게 생각하기는 어렵습니다. 여기서 말하는 것은 단순 연산 능력이 아닌, 생각하고 실행하며 목적을 달성하는 종합적인 능력을 말합니다. 하지만 앞으로는 상황이 바뀔지 모르겠습니다. 바로 고대역폭 메모리(High Bandwidth Memory, HBM) 덕분입니다.

TSV, 발상의 전환을 시작하다

2 (32).jpg

▲ SK하이닉스는 AMD와 함께 세계 최초로 HBM을 상용화했다.

SK하이닉스 블로그에서도 HBM은 여러 번 다뤄졌습니다. D램을 설명하는 과정과 실리콘관통전극(Through Silicon Via, TSV), 후공정 등을 언급하면서 소개됐죠. 이번에는 조금 다른 이야기를 해보겠습니다. 잘 알려진 것처럼 HBM은 여러 개의 D램을 TSV를 통해 쌓아 데이터 전송속도를 높이는 것이죠.

지난해 SK하이닉스는 반도체 올림픽이라 불리는 ‘국제 고체 회로 학술회의(International Solid-State Circuit Conference, ISSCC)’에서 341GB/sec(초)의 속도를 가진 ‘2세대 고대역폭 메모리(High Bandwidth Memory, HBM2)’를 선보인 바 있습니다.

좀 더 자세히 살펴보면, 사실 HBM은 지난 2014년 AMD와 SK하이닉스가 협력해 만든 작품입니다. 당시만 하더라도 명확한 표준은 없었고, 말 그대로 백지에 그림을 그리는 과정에 있었습니다. SK하이닉스의 고민은 단순했습니다. 용량과 데이터 전송속도를 동시에 높이는 것이었죠.

5 (17).jpg

▲ TSV는 한 마디로 초고층 빌딩을 오르내리는 엘리베이터다.

하지만 작업은 순탄치 못했습니다.

▲ 앞으로 모든 반도체는 하나의 칩 안에 여러 단계의 적층이 필수적일 것으로 예상된다.

하지만 작업은 순탄치 못했습니다. 가장 큰 문제는 TSV 그 자체에 있었습니다. TSV는 회로 기판과 칩 사이에 들어가는 기능성 패키지판인 ‘인터포저’ 위로 회로 칩, 그리고 겹겹이 D램이 올라가 있는 형태입니다. 아파트를 연상하면 이해가 쉽습니다. 요즘 많이 찾아볼 수 있는 필로티(인터포저) 위에 커뮤니티센터(로직 칩)가 있고, 다음으로 각 세대(D램)가 얹혀진 모습이라고 생각하면 됩니다.

이런 상태에서 TSV는 여러 층의 반도체를 뚫고 지나가면서 데이터를 부지런히 이동시켜야 하는데 예상치 못하게 너무 많은 부하(負荷)가 생기게 됩니다. 이는 TSV 망 구성(토폴러지, topology) 방식이 ‘멀티-드롭(Multi-Drop)’ 방식으로 구성되어 있었기 때문입니다. 결국 다른 방법을 찾아야 했습니다.

컴퓨터는 당연히 대역폭이 좋을수록 데이터 처리가 빨라집니다. 다만 복잡해지는 신호와 이로 인한 간섭현상, 치솟는 원가 등을 해결해야 합니다. 대역폭을 높이는 방법에는 멀티-드롭 외에도 ‘싱글-엔드(Single-ended)’, ‘디퍼런셜(differential)’, ‘P-디퍼런셜’, ‘포인트 투 포인트(Point to Point, P2P)’ 등이 있습니다. 이 가운데 SK하이닉스는 멀티-드롭을 사용하다가 최근 P2P 방식을 도입하죠.

그런데 이름이 재미있습니다. ‘스파이럴 P2P(Spiral P2P)’입니다. 간단하게 말해서 망 구성 방식을 직렬에서 나선형으로 바꿨다고 보면 됩니다. TSV가 8채널(8층)을 뚫고 지나가는 것은 기존과 다르지 않지만, 데이터 송수신(TX/RX)에 변화를 줬다고 이해하면 됩니다. 조금 억지스럽지만, 중앙처리장치(CPU)와 비유하면 싱글 코어만 쓰다가 멀티 코어로 진화한 셈입니다.

서버를 넘어 컴퓨팅 전 분야에 활용

3 (27).jpg

▲ 망 구성 방식의 변화로 HBM2의 성능이 크게 개선됐다.

SK하이닉스가 처음부터 스파이럴 P2P가 아닌 멀티-드롭을 사용한 이유는 ‘용량’과 ‘속도’를 모두 잡으려는 목적 때문으로 보입니다. 2채널부터 8채널까지 같은 망 구성으로 유연하게 라인업을 구성하려고 했던 것이죠. TSV의 성능을 한계까지 끌어내려던 것 같습니다. ‘상남자’ 스타일이네요.

스파이럴 P2P로 망 구성 방식의 변경은 앞으로 일어날 몇 가지 사건을 암시하고 있습니다. 첫 번째는 20나노에서 10나노 D램 시대로의 진입을 염두에 뒀다는 점, 두 번째는 성능에 있어 저전력의 중요성, 세 번째는 애플리케이션(적용분야)의 확대입니다.

SK하이닉스는 멀티-드롭에서 스파이럴 P2P로의 변경하면서 전력소비량이 30% 줄고 크로스토크와 같은 간섭현상이 개선됐다고 밝혔습니다. 현재 2세대 HBM(HBM2)은 20나노 D램으로 만들고 있지만, 10나노로 진입할 경우 용량이 늘어나게 되므로 32GB 이상의 고용량 시대를 대비할 필요가 있습니다.

현재 어떤 HBM2라도 칩 하나당 구현할 수 있는 용량은 최대 8GB에 머무르고 있습니다. 시스템온칩(SoC)에 붙일 수 있는 최대 용량은 32GB(8GB×4)에 불과하죠. 서버의 메모리 용량이 테라바이트(TB) 시대에 진입했다는 점을 생각하면 아직 갈 길이 멉니다. CPU나 그래픽처리장치(GPU) 등 일부 제품에서만 HBM이 쓰이는 이유가 여기에 있습니다.

따라서 HBM은 당연히 서버 시장을 노릴 수밖에 없습니다. 물론 지금도 서버에 적용되고 있으나 어디까지나 보조적인 역할에 머무르고 있습니다. 주메모리는 여전히 D램의 영역이죠. 한계극복을 위해서는 새로운 방식이 계속해서 시도되어야 합니다.

쓰임새 다양해지면 더 많은 기회 생길 듯

SK하이닉스 HBM.jpg

▲ SK하이닉스의 HBM2는 기존의 DDR3 대비 256GB/s 이상의 고속, 저전력 제품으로 세계적 수준의 성능을 자랑한다. 이 제품은 그래픽, 서버, 슈퍼 컴퓨터, 네트워크 등의 다양한 응용분야에 쓰일 예정이다.

HBM 자체가 널리 사용될 필요가 여기에 있습니다. 위에서도 언급한 것처럼 TSV를 구현하기 위한 인터포저의 가격이 비싸 대중화에 걸림돌이 되고 있죠. 하지만 보급형 HBM이 선보이면 상황이 달라질 것으로 보입니다.

국제반도체표준협의기구(Joint Electron Device Engineering Council, JEDEC)에 따르면 보급형 HBM은 D램 적층을 위한 베이스 다이(로직 칩)를 없애고 인터페이스 대역폭을 1024비트에서 512비트로 줄였습니다. 여기에 에러보정기술(ECC)을 빼고 비용 상승이 가장 큰 인터포저 재료를 무기물인 실리콘에서 유기물로 대체한다는 계획입니다. 그런데도 최대 데이터 전송속도는 200GB/sec 정도로 유지할 수 있습니다.

사양으로 따지면 보급형 HBM은 HBM2의 가장 낮은 등급의 제품과 엇비슷한 성능을 낼 것으로 예상합니다. 물론 인터페이스 대역폭의 제한, ECC 제외, 유기물 인터포저의 검증 등의 문제로 인해 지금과 같이 서버나 기업 시장을 목표로 삼기는 어려울 것으로 보입니다. 물론 그만큼 가격이 저렴해지기 때문에 고급형 그래픽카드 등에 손쉽게 접목할 수 있습니다.

 

생각의 속도는 언제나 기술을 앞서 왔습니다. 제품은 확실성의 결정체이지만 생각은 불확실성의 ‘끝판왕’이거든요. 불확실성은 확실성보다 더 큰 영역입니다. 그렇기 때문에 여러 사람의 생각으로 더 나은 제품을 만들 수 있습니다. SK하이닉스가 연구개발(R&D)에 실패해도 상을 주고, 반도체 혁신을 위해 일반인 대상으로도 아이디어를 공모하는 이유가 이겁니다. HBM은 이제 막 시작한 새로운 메모리 영역입니다. 그러니 더 많은 개선과 발전이 이뤄질 겁니다. 그 중심에 언제나 생각이 있다는 점을 잊지 말아야 합니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/speed-of-thought/feed/ 0
워크스테이션을 통해 본 컴퓨팅의 과거와 현재, 그리고 미래 /via-workstation/ /via-workstation/#respond Tue, 03 Apr 2018 15:00:00 +0000 http://localhost:8080/via-workstation/ 워크스테이션3.png

1946년 태어난 에니악(ENIAC)은 존 폰 노이만(John Von Neumann)이 저장장치에 프로그램을 저장하고 실행하는 방식을 정립한 ‘폰 노이만 구조’를 적용하는데 적지 않은 영향을 끼쳤습니다. 이후에 등장한 거의 모든 컴퓨터, 지금 손바닥에 있는 스마트폰 역시 모두 이러한 형태를 근간으로 하고 있죠. 그리고 그것을 활용하는 것이 ‘컴퓨팅’입니다. 그렇다면 앞으로 컴퓨터는 어떻게 변할까요? ‘워크스테이션’을 통해 컴퓨팅의 과거와 현재, 미래를 살펴보도록 하겠습니다.

슈퍼컴퓨터를 책상으로… 워크스테이션의 등장

컴퓨터는 복잡한 계산을 하기 위해 태어났습니다. 어원도 ‘계산하다’라는 뜻의 라틴어에서 왔죠. 초기 컴퓨터는 탄도미사일 궤도나 천체물리학과 같이 수학적인 계산이 많이 필요한 곳에 사용하기 위한 목적으로 개발되었는데요. 에니악을 포함한 이후에 선보인 컴퓨터는 진공관을 사용해 방안을 가득 채울 정도로 덩치가 매우 컸습니다.

그러다가 트랜지스터를 활용한 집적회로(Integrated Circuit, IC)가 등장하면서 냉장고 정도 크기로 줄어듭니다. 곧바로 여러 대의 컴퓨터를 연결한 ‘슈퍼컴퓨터’가 등장하지만요. 주변에서 흔히 볼 수 있는 개인용 컴퓨터(PC)는 1970년대 중반에서야 태동하기 시작합니다. 바로 고(故) 스티브 잡스, 스티브 워즈니악이 만든 ‘애플I’이 주인공입니다.

PC가 나타났으나 여전히 컴퓨터는 비싸고 무거우며 전문가의 영역이었습니다. 특히 메인프레임과 같은 대형컴퓨터는 사용하기에 너무나 까다로웠죠. 그래서 나온 것이 ‘미니컴퓨터’입니다. 요즘 말하는 미니컴퓨터는 한 손으로 들고 다니는 작은 데스크톱PC를 말하지만, 예전에는 대형컴퓨터의 크기를 줄이고 사용자 편의성을 높인 제품을 뜻했습니다.

이름은 미니컴퓨터였지만 책상에 올려놓고 사용할 수 있는 크기는 아니었습니다. 붙박이장 크기이니 건물 한 층을 가득 채우는 슈퍼컴퓨터나 대형컴퓨터보다는 작은 정도였죠. 그때 PC 정도 크기의 성능은 미니컴퓨터가 목표였고, 선마이크로시스템스가 ‘SUN 1’이라는 이름의 제품을 1982년 내놓게 됩니다. 워크스테이션의 탄생입니다.

크기는 작았지만 워크스테이션은 미니컴퓨터와 거의 비슷한 성능을 냈습니다. 이를 위해 중앙처리장치(CPU), 메모리를 비롯해 각종 부품에 아낌없이 투자했습니다. 어차피 일반인이 구매할 제품(1대당 1000만원~1억원)이 아니었고 용도를 고려하면 당연한 결과였습니다. 운영체제(OS)도 유닉스를 사용했습니다. 사실상 조그만 슈퍼컴퓨터라고 해도 과언이 아니었습니다. 부족한 성능은 슈퍼컴퓨터와 연결하면 그만이었습니다. 워크스테이션으로 기본적인 작업을 하고 슈퍼컴퓨터로 본격적인 계산에 들어가는 방식이었죠.

1 (11).png

▲ SK하이닉스 전신인 현대전자도 워크스테이션을 개발해 판매한 바 있다. (출처: 컴퓨터와 게임)

SK하이닉스의 전신인 현대전자도 이 시장을 눈여겨봤습니다. 선마이크로시스템스 호환 워크스테이션을 1990년 개발했으며 1993년에는 전용 CPU를 개발한 바 있죠. 당시 워크스테이션은 밉스(MIPS) 아키텍처 기반의 ‘Reduced instruction set computer(RISC)’ CPU를 주로 사용했고, SK하이닉스는 모델명 ‘썬더 1.5’라는 제품으로 국산화에 성공했습니다. 미국에 이어 1998년에는 중국에 워크스테이션을 수출하기도 했습니다.

짧고 화려한 전성기, PC에게 자리를 내주다

7 (7).png

▲ SGI가 1995년에 출시한 O2 워크스테이션

1990년대는 워크스테이션의 전성기였습니다. 1980년대 미항공우주국(NASA)이 인공위성과 우주탐사선 개발과 운영에 워크스테이션을 적극 도입하면서 각 기업은 제품 개발 및 활용에 열을 올렸습니다. 개인적으로 소장하고 있는 실리콘그래픽스(SGI) 워크스테이션도 이 당시 개발해 판매된 제품입니다. <터미네이터2>, <쥐라기 공원>, <토이스토리> 등 당시 할리우드의 내로라하는 컴퓨터 그래픽(CG) 작업에는 SGI 제품이 쓰였습니다. 방송국의 특수효과(FX)에도 톡톡히 역할을 했죠.

SGI도 다른 워크스테이션 업체와 마찬가지로 유닉스를 개량한 자체 OS, 아이릭스(IRIX)를 가지고 있었습니다. 선마이크로시스템스는 솔라리스(Solaris), IBM은 AIX, 휴렛팩커드는 HP-UX와 트루64라는 OS를 사용했습니다. 모두 전용 CPU와 플랫폼에서 작동했는데, 이를 x86 아키텍처 기반 PC에서 써먹기 위해 탄생한 것이 바로 리눅스(LINUX)입니다. 조상은 모두 유닉스고요.

SGI 워크스테이션(모델명 O2)을 자세히 들여다보죠. 겉보기에는 이쁘장한 데스크톱PC로 보이지만 무게가 상당합니다. 안정성을 확보하기 위해 철판과 냉각용 방열판을 본체에 두른 덕분입니다. 10Kg은 훌쩍 넘죠. 상위 라인업인 ‘옥테인’이라는 제품은 30Kg에 육박합니다. SGI O2는 모듈식 설계가 적용됐는데 메인보드를 비롯해 전원공급장치, 하드디스크드라이브(HDD), 각종 입출력(I/O) 장치를 전용 슬롯에 장착하는 형태로 되어 있습니다. 시대를 고려할 때 상당히 선진적인 방식입니다.

4 (8).png

▲ 메모리는 특별 주문한 제품이다. ECC와 레지스터드를 모두 지원한다. 듀얼채널 구조라 무조건 짝수로 이뤄져야 한다.

HDD 인터페이스는 SCSI(Small Computer System Interface)를 사용합니다. 패럴렐(병렬) 프로토콜을 사용하며 데이터센터 스토리지로 흔히 볼 수 있는 SAS(Serial-Attached SCSI)의 이전 버전이죠. 2개의 HDD가 장착됐고 하나는 OS, 다른 하나는 데이터 백업용입니다. 각 부품을 모두 제거하고 난 다음 메인보드를 꺼내면 빼곡히 박혀 있는 메모리가 보입니다. 그런데 PC와 달리 핀(Pin) 개수(278개)가 다른 특수 메모리입니다. 에러수정코드(ECC)는 기본이고 레지스터드(Registered)까지 제공합니다.

참고로 레지스터드는 별도의 컨트롤러 칩을 메모리 모듈에 장착한 형태로, 데이터 신호를 정렬하고 병목현상을 최소화해줍니다. 작은 메모리 컨트롤러가 메모리 모듈에 하나씩 마련되어 있다고 보면 됩니다. 덕분에 CPU 부담은 줄이고 각 부품의 잠재력을 100% 끌어낼 수 있죠.

5 (8).png

▲ 64비트 CPU가 사용됐으며 안정성을 극도로 높인 것이 특징이다.

CPU는 밉스 호환으로 SGI O2는 R5000, R10000, R12000, RM5200, R12000A, RM7000A가 시대와 모델에 알맞게 쓰였습니다. 미세공정, 클록, 캐시메모리, 지원 비트에 차이가 있습니다. 분해한 제품에는 RM5200이 사용됐는데 64비트 기반에 300MHz의 클록, 64KB 레벨1(L1) 캐시메모리, 1MB의 레벨2(L2) 캐시메모리가 적용됐습니다. 현재 기준으로 보면 보잘것없지만 1997년 기준으로는 PC와 비교할 수 없을 정도로 높은 성능을 가지고 있었습니다.

4차 산업혁명 시대에 요구되는 새로운 컴퓨팅

영원할 것 같았던 워크스테이션은 x86 CPU의 성능이 높아지고 호환성, 사용자 편의성, 가격 등이 맞물리면서 점차 사그라들었습니다. SGI도 파산한 지 오래죠. 지금 출시되는 워크스테이션은 모두 PC 기반으로 설계된 것들입니다. 미니컴퓨터의 탁상용 버전인, 엄밀한 의미의 워크스테이션은 이제 찾아볼 수 없습니다.

바로 이 지점이 중요합니다. 최신 스마트폰의 성능은 과거 슈퍼컴퓨터, 혹은 워크스테이션에 필적합니다. 과장을 조금 보태면 손에 들고 다니는 1980년대 슈퍼컴퓨터라고 해도 무리가 아니죠. 그렇다면 이 순간에 데이터센터에 있는 슈퍼컴퓨터나 서버가 가진 성능은 언제쯤 스마트폰 크기로 줄어들 수 있을까요. 바라보는 시각에 따라 차이가 있지만, 기술의 발전 속도를 고려했을 때 10년이면 충분하다는 게 일반적인 분석입니다.

6 (10).png

▲ 손가락 위에 올려져 있는 칩이 아니다. 그 위에 있는 작은 알갱이 하나가 1990년대 PC 정도의 성능을 가지고 있다. (출처: IBM)

얼마 전 IBM에서 내놓은 좁쌀 크기의 ‘크립토그래픽 앵커(Cryptographic Anchors)’ 컴퓨터는 1990년대 PC 정도의 성능을 가지고 있다고 합니다. 인공지능(AI), 블록체인과 같은 기술이 접목되면 성능은 높이면서도 크기는 더 줄일 수 있을지 모릅니다. 앞으로 좁쌀이 아니라 머리카락 굵기의 컴퓨터가 등장한다고 해서 놀랄 이유가 없습니다. 이때의 컴퓨터는 단순히 계산을 넘어서서 컴퓨팅의 한계를 극복, 순식간에 데이터를 빨아들이고 상상하지 못할 세계를 펼쳐줄 수 있습니다. 적용 분야는 무궁무진하죠.

SK하이닉스 역시 새로운 컴퓨팅 시대를 대비해 사람의 뇌를 모사(摹寫)하는 뉴럴프로세서유닛(NPU)을 개발하고 있습니다. 이미 스탠퍼드대학교, 램리서치, 버슘머티리얼즈와 함께 뉴로모픽(Neuromorphic·뇌신경 모방) 칩의 연구에 들어갔습니다. 워크스테이션이 그랬던 것처럼 처음에는 슈퍼컴퓨터에서 시작해 점차 하방 전개가 이뤄질 겁니다. 그리고 언젠가는 누구나 쉽게 만나볼 수 있겠죠. SK하이닉스도 단순히 반도체가 아니라 컴퓨팅 그 자체를 판매하게 될 날이 올 것으로 예상합니다.

 

구석에서 먼지를 폴폴 날리며 처박혀 있던 워크스테이션을 꺼냈을 때 먼저 든 생각은 스마트폰이었습니다. 당시 워크스테이션에서만 가능했던 작업은 이제 언제 어디서나 가능해졌죠. 지금 시대는 엄청난 빅데이터, 인간의 사고를 뛰어넘는 AI 등이 등장하고 있으나 여전히 생각의 속도와는 격차가 있습니다. 상상력에는 한계가 없기 때문입니다. 문제는 사고를 체계화하고 행동에 옮길 수 있는 능력입니다. 앞으로의 컴퓨팅은 단순 연산에만 머무르지 않고 인간의 가능성을 끌어올릴 수 있게 될 것입니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/via-workstation/feed/ 0
4차 산업혁명의 밑거름, 기업용 SSD 시장에 나서는 SK하이닉스! 목표와 과제는? /4th-industrial-revolution/ /4th-industrial-revolution/#respond Mon, 05 Mar 2018 15:00:00 +0000 http://localhost:8080/4th-industrial-revolution/ ssd시장_main_2.png

몇 년 전부터 4차 산업혁명이라는 이야기가 자주 나옵니다. 인공지능(AI), 자율주행차, 가상현실(VR), 사물인터넷(IoT), 5세대(5G) 이동통신 등이 대표적인 키워드죠. 이들에는 공통점이 있습니다. 바로 엄청난 양의 데이터를 쏟아낸다는 사실입니다. 대규모 데이터는 ‘데이터센터’에 저장되며, 빅데이터 기술을 활용해 이를 분석하고 재해석하는데요. 과거에도 데이터센터는 늘 존재했으나 지금은 저장할 데이터 자체가 기하급수적으로 급증하고 있다는 점이 중요합니다. 데이터 입출력(I/O) 속도가 중요해진 이유이기도 하죠. 하드디스크드라이브(HDD)가 낸드플래시 기반의 솔리드스테이트드라이브(SSD)로 바뀔 수밖에 없는 것도 이 때문입니다.

HDD는 어떻게 오랫동안 시장을 점유했을까

기업이 변화에 민감하게 반응하지 못하는 이유는 다양합니다. 그 이유에는 ‘과거에 그랬으니, 앞으로도 그럴 것’이라는 경험적 사고에 기반을 둔 내용이 많습니다. 기업용 스토리지, 이른바 데이터센터도 마찬가지였습니다. HDD가 오랫동안 사용될 수 있었던 원동력은 이 시장 고유의 폐쇄적이고 보수적인 문화의 영향이 컸습니다. HDD가 등장하기 이전, 데이터센터라는 개념이 생기지 않았던 시절에는 마그네틱테이프를 저장매체로 사용했습니다. 이후에는 어른 몸통과 비슷한 크기를 가진 광디스크가 사용됐지만, 데이터를 읽고 쓰는 속도가 느려서 HDD가 상용화된 이후에는 반영구적으로 데이터를 저장할 때만 사용됐습니다.

이들 스토리지의 가장 큰 특징은 안정성입니다. 금융을 비롯해 기업의 민감한 자료를 다루다 보니 천재지변과 같은 상황에서도 데이터를 안전하게 저장할 수 있어야 했습니다. HDD가 개발된 이후에도 마그네틱테이프가 활용된 것도 이런 이유에서였죠. 그러다가 점차 데이터가 늘어나면서 HDD를 활용하게 됐고 마그네틱테이프나 광디스크는 보조적으로 쓰였습니다. ‘1차 데이터는 HDD, 2차 데이터는 마그네틱 혹은 광디스크’라는 공식이 생긴 것입니다.

빅데이터 시대, HDD의 종말을 고하다

[sk하이닉]기업용ssd시장_1.png

▲ HDD 스토리지 시장의 강자인 EMC도 결국 낸드플래시 기반의 올플래시 스토리지 제품을 내놨다. (출처: 델EMC)

흔히 ‘인간의 욕심은 끝이 없다’라는 말을 하죠.

▲ 데이터센터에서 SSD는 선택이 아닌 필수다. 단위 면적당 용량을 높이고 각자의 플랫폼을 내세워 시장점유율을 높이려는 전략을 펼치고 있다. (출처: HP엔터프라이즈)

흔히 ‘인간의 욕심은 끝이 없다’라는 말을 하죠. 데이터도 마찬가지입니다. 지금까지 수많은 데이터센터가 지어졌지만 여전히 저장할 데이터가 넘칩니다. 괜히 빅데이터라는 말이 나온 게 아닙니다. 문제는 단순히 데이터의 양만 늘어난 것이 아니라 성능까지 요구받고 있다는 데 있습니다. 빠른 속도의 I/O가 필요하게 된 것이죠. 기업용 스토리지 시장은 여태껏 HDD와 함께 SCSI나 SAS, 그리고 레이드(RAID) 기술로 이런 문제를 극복했습니다. 쉽게 말해 더 빠른 속도의 인터페이스, 하나의 데이터를 여러 개로 쪼개 분산해 저장하는 기술이라고 생각하면 됩니다.

당연히 여러 개의 HDD를 묶어서 사용하고 데이터를 보호하며 안정성을 높이기 위해 각종 솔루션이 도입되기 시작했습니다. 지금은 델에 인수된 EMC와 같은 기업이 등장하게 된 계기입니다. 데이터는 그 자체로 학문이라고 해도 과언이 아닙니다. 운영체제(OS)와의 연계는 물론이거니와 컨트롤러 알고리즘, 데이터 처리 방법론, 스토리지의 성능은 높이면서 수명을 연장하는 방법 등을 고민해야 하니 여간 복잡하고 까다로운 게 아닙니다.

HDD에서 SSD로의 전환에서 이 부분에 대한 고민이 커졌습니다. 잘 알려진 것처럼 SSD는 HDD와 달리 기계적인 부품이 없는 순수하게 반도체로 이루어진 스토리지입니다. 더불어 데이터를 저장하는 방식이 완전히 다르죠. SSD는 데이터를 저장할 때 기존 데이터가 저장된 공간을 지우고 채우는 방식입니다. ‘지우고→기록’하는 순서죠. 더구나 특정 셀(데이터가 기록되는 최소 단위)에 반복적으로 데이터를 쓰고 지우면 수명이 급격하게 저하됩니다.

따라서 SSD는 시스템에서 더는 사용하지 않는 메모리를 자동으로 다시 사용 가능한 메모리로 되돌려주는 ‘가비지 컬렉션(Garbage Collection)’, 데이터를 여러 부분에 골고루 뿌려서 사용하는 ‘웨어레벨링(wear leveling)’을 기본적으로 잘 다뤄야 합니다. 가비지 컬렉션이 제때 이루어지지 않으면 성능이 급격하게 저하되는 ‘쓰기 절벽(write cliff)’ 현상이 나타납니다. 가비지 컬렉션은 생각보다 많은 자원을 소모하므로 충분한 컨트롤러 성능, 그리고 컨트롤러 자체가 원활하게 작동하도록 지원이 필요합니다.

또한, 가비지 컬렉션이나 웨어레벨링 등의 핵심 기능이 원활하게 작동할 수 있도록 미리 마련된 예비 공간인 ‘오버 프로비저닝(over provisioning)’도 고려해야 하죠. 오버 프로비저닝 영역이 클수록 가비지 컬렉션 할 수 있는 용량이 늘어나 성능 저하를 최소화할 수 있고, 웨어레벨링이나 에러수정코드(ECC)로 인해 에러 비트 체크 및 정정 시 쓰기가 가능한 셀을 더 많이 확보할 수 있습니다.

기업용 SSD 시장 첫발 뗀 SK하이닉스

[sk하이닉]기업용ssd시장_2.png

▲SK하이닉스는 소비자용 SSD 시장에서 조용히 힘을 길러왔다. (출처: SK하이닉스)

SK하이닉스가 기업용 SSD 시장 진입을 위해 준비한 것도 이런 데이터를 다루는 기술을 확보하기 위함이었습니다. 그동안 외부에 컨트롤러와 펌웨어를 의존했지만, 자체적으로 내재화하는 데 성공했습니다. 이는 낸드플래시를 훨씬 더 잘 다룰 수 있다는 의미입니다. 아무리 뛰어난 반도체라고 해도 통제수단이 엉망이라면 제대로 성능을 발휘할 수 없죠. 같은 자동차라도 전문 드라이버와 초보 운전자는 다른 결과를 내는 것과 같습니다. 풀어 말하면 반도체가 가진 잠재적 능력을 100%로 끌어올린다고 보면 됩니다.

이미 SK하이닉스는 4세대 72단 512Gb 3D 낸드플래시를 기반으로 해 최대 4TB의 용량을 지원하는 시리얼ATA 규격의 기업용 SSD 개발을 완료했다고 밝혔습니다. 이후에는 자연스럽게 SAS와 NVMe 인터페이스로의 진화가 예상됩니다. 올해 목표는 일단 기업용 SSD 시장에서 의미 있는 발자국을 남기는 일입니다. PC나 노트북에 널리 쓰이는 시리얼ATA의 특성을 고려했을 때, 당장은 대규모 데이터센터보다 네트워크 결합 스토리지(NAS)와 같은 상대적으로 진입장벽이 낮은 시장을 두드릴 가능성이 큽니다.

이후에는 어떤 세상이 기다릴까요? 여기서부터는 정말 치열한 경쟁이 기다리고 있습니다. 바로 플랫폼 시대로 들어섭니다. 각자 자신이 생산하고 있는 낸드플래시를 고유의 폼팩터로 만들어 공급하려는 일종의 수직계열화 전략이죠. 4차 산업혁명 선제투자 성격으로 같은 데이터센터에서 서버의 수 보다는 서버 1대에 탑재되는 메모리반도체 용량을 높이려는 추세를 고려한 것입니다.

이제 갓 기업용 SSD 시장에 진입한 SK하이닉스 관점에서 아직 먼 이야기일 수 있습니다. 하지만 언젠가는 진입해야 하는 운명입니다. 단순히 공급자에서 그치지 않고 뼈대를 세워 플랫폼을 아우르고, 그 위에 솔루션과 서비스를 얹어서 팔아야 고부가가치 수익을 기대할 수 있습니다. SK하이닉스는 HBM과 같은 초고속 D램, 각종 이머징 메모리에서 기술력을 확보하고 있기 때문에 충분한 경쟁력이 있습니다. 앞으로는 낸드플래시만 가지고는 시장에서 살아남기 어렵습니다. 다른 메모리 반도체까지 포괄적으로 다룰 수 있어야 유리할 것입니다.

 

SK하이닉스의 전체 매출에서 낸드플래시가 차지하는 비중은 D램과 비교해 아직 크지 않습니다. 반대로 그만큼 성장할 수 있는 여력이 높다는 의미이기도 합니다. 기업용 SSD 시장은 무척 복잡하고 까다롭기 때문에 진입장벽이 분명 존재합니다. 대신 한 번 다져놓으면 오랫동안 효자 노릇을 하는 사업이기도 합니다. 이런 기업용 SSD 시장의 진입은 SK하이닉스가 솔루션 기업으로의 진화를 선언한 것이나 다름없습니다. 이제껏 경험치 못했던 새로운 도전을 감행한 SK하이닉스가 어떤 모습으로 다가올지 벌써 지켜보는 재미가 생깁니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/4th-industrial-revolution/feed/ 0
양자·바이오컴퓨터 너머에는? 반도체와 함께 진화하는 차세대 컴퓨터 /biocomputer/ /biocomputer/#respond Sun, 04 Feb 2018 15:00:00 +0000 http://localhost:8080/biocomputer/ 2 (18).png

인류가 현대문명을 이룩할 수 있었던 원동력은 현재에 만족하지 않고 끊임없이 탐구를 거듭했기 때문일 것입니다. 정보화 사회로의 진입을 가능케 만든 트랜지스터도 마찬가지여서, 당시와 지금의 반도체 성능은 비교가 어려울 정도로 급성장했습니다. 하지만 사물인터넷(IoT), 인공지능(AI) 등 4차 산업혁명의 등장으로 처리해야 할 데이터가 기하급수적으로 늘어나고 있습니다. 반도체 한계극복이 갈수록 어려워지고 있는 상황에서 자연스럽게 ‘비욘드 컴퓨터’에 대한 관심이 커질 수밖에 없는데요. 오늘은 그 대안으로 주목 받고 있는 양자컴퓨터, 바이오컴퓨터에 대해 이야기해보겠습니다.

관측의 세계, 실제로 존재하는 양자컴퓨터

2_3 (4).png

▲ 양자컴퓨터의 대표주자인 캐나다 D-WAVE. 16비트 양자 프로세서를 사용한다. (출처: D-WAVE)

우선 양자컴퓨터에 대해 이야기하기 위해서는 당연히 ‘양자’가 무엇인지 알아봐야 합니다. 살짝 머리가 아플 수 있지만 느낌 그대로 받아들이면 생각보다 어렵지 않습니다. 최대한 쉽게 설명하면 양자컴퓨터는 ‘양자역학(Quantum Mechanics)’에 이론을 두고 있는데, ‘현재 상태를 정확하게 알고 있다면 미래의 어느 순간에 어떤 사건이 일어날지 정확하게 예측할 수 있다’라는 결정론의 고전물리학과 달리 관측에 의한 확률론이 핵심입니다.

대표적인 예가 ‘슈뢰딩거의 고양이’로 ‘밀폐된 상자 안에 있는 고양이가 절반의 확률로 죽을 수 있고 1시간 뒤에 어떻게 됐을까?’입니다. 보통은 ‘죽었거나’, ‘살았거나’ 둘 중 하나의 답이 나와야 합니다. 이와 다르게 양자역학의 세계에서는 삶과 죽음의 두 가지 상태가 모두 존재합니다. 그 이유는 뚜껑을 열어보기 전까지 고양이가 무슨 상태인지 확인할 수가 없기 때문이죠. 어떤 물질이라도 관측하기 전에는 상반된 상태가 존재하며, 이는 관측으로 결정된다고 보면 됩니다.

2_4 (4).png

▲ ‘무어의 법칙’으로 잘 알려진 인텔도 양자컴퓨터 시장에 뛰어든 상태다. (출처: 인텔)

그렇다면 이것이 양자컴퓨터와 무슨 관계가 있을까요? 양자는 물질을 이루고 있는 분자나 원자보다도 더 작습니다. 이렇게 작디작은 미시세계(微視世界)에서는 고전물리학이 통하지 않습니다. 어떻게 보면 엉터리고 해괴한 일이죠. 그런데 오히려 이런 특성이 대규모로 데이터를 처리하는 데 있어 유리합니다.

컴퓨터는 고성능 계산기입니다. 그리고 ‘0’과 ‘1’로 이루어진 디지털 데이터를 사용하죠. ‘1+1’ 계산을 하려면 디지털의 최소 단위인 1비트(Bit)에 1을 입력하고 다른 비트에 1을 하나 더 넣어야 합니다. 즉, 2개의 비트를 사용해야 ‘2’라는 결과를 내놓을 수 있습니다.

양자컴퓨터는 이런 번거로운 과정이 필요 없습니다. 2개의 비트로 ‘00’, ‘01’, ‘10’, ‘11’을 일일이 표현해야 하는 기존 컴퓨터와 달리, 모든 데이터가 동시에 존재하므로 한 번에 계산할 수 있습니다. 더구나 미세공정에 걸림돌이 되는 발열, 재료, 누설전류(터널링 현상) 등의 문제가 해결됩니다. 1024개의 데이터를 처리하기 위해 1024개의 중앙처리장치(CPU)를 마련하는 대신 그저 10비트짜리 양자컴퓨터 한 대만 있으면 됩니다. 병렬처리가 기본이니 성능은 말할 것도 없겠네요.

놀라운 점은 양자컴퓨터가 이론으로 증명됐을 뿐 아니라 실제로 존재한다는 사실입니다. IBM, 구글, 인텔 등이 이미 양자컴퓨터 연구·개발에 뛰어든 상태입니다. 다만 양자의 상태를 측정하고 0, 1로 놓고 싶은 상태로 배치해야 하는데 이게 어렵습니다. 양자역학의 세계가 너무 미세하다 보니 이를 통제할 수 있는 나노기술이 마땅치가 않습니다.

바이오컴퓨터, 0과 1을 단백질로 구현

2_5 (4).png

▲ 바이오컴퓨터는 단독보다 기존 반도체와의 협업을 통해 활용될 것으로 보인다. (출처: 미국 SLAC 국립 가속기 연구소)

이번에는 바이오컴퓨터를 들춰 보겠습니다. 양자컴퓨터만큼은 아니지만, 바이오컴퓨터도 한때 유망한 차세대 컴퓨터로 주목받았습니다. 물론 혁신적인 기술개발이 이뤄지지 못해 아직 답보 상태이기는 합니다. 처음에는 단백질, DNA, RNA 등 유기물로 구성하려고 했으나 지금은 사람의 뇌를 모사(摹寫)하는 뉴럴프로세서유닛(NPU)에 더 집중하는 모양새입니다.

SK하이닉스도 NPU 개발에 뛰어든 상태죠. 잘 알려진 것처럼 스탠퍼드대학교, 램리서치, 버슘머티리얼즈와 함께 뉴로모픽(Neuromorphic·뇌신경 모방) 칩을 개발하고 있습니다. 반도체 완제품, 장비, 재료, 그리고 학계가 모여 공동으로 목표를 세웠다는 점이 흥미롭죠. 그만큼 어렵다는 이야기입니다. 현재 기술로는 그저 사람의 메커니즘을 따라가기도 벅찹니다. 그러니 생명체로 데이터를 처리하는 바이오컴퓨터는 상상하기조차 어렵네요.

앞서 양자컴퓨터에서 설명한 것처럼 핵심은 병렬처리입니다. 바이오컴퓨터는 분자 수준의 생화학 반응을 이용해 병렬성이 높고 집적도가 높은 것이 특징입니다. 반도체는 데이터를 처리할 때 전기적 신호로 상태를 구분하고 지정된 장소에 전달합니다.

생명체를 구성하고 있는 단백질도 기본적인 골자는 같습니다. 분자와 산화, 환원 상태가 다르며 서로 전자를 전달하면서 미세한 전류를 일정한 방향으로 주고받죠. 이런 특성을 이용해 0과 1의 데이터를 단백질의 산화, 환원 반응(산화를 0, 환원을 1)에 대입시켰다고 보면 됩니다. 나노기술의 한계로 CPU까지는 아니더라도 데이터를 저장할 수 있는 ‘바이오메모리’는 연구 단계에서 만들어진 상태죠.

그런데도 양자컴퓨터와 마찬가지로 ‘배열’이 너무 어렵습니다. 나노 단위에서 분자 구조를 마음먹은 대로 바꿔야 하고 여기에 전자의 움직임 조절이 쉽지 않은 것이죠. 특히 전자를 전달해주는 역할을 하는 생물분자막은 여러 단백질이 하나로 결합해 있는데, 이를 짜임새 있게 구성하는 데 애를 먹고 있습니다.

덧붙여 단백질 자체는 산패, 말 그대로 공기에 노출되면 썩어버립니다. 그리고 같은 나노기술이어도 반도체와 같은 무기물을 다루는 것이 단백질 등 유기물보다는 상대적으로 더 유리합니다. 바이오컴퓨터, 또는 바이오메모리가 양자컴퓨터보다 발전이 더딘 이유는 현재의 반도체 기술의 발전할 여력이 남아있기 때문입니다.

차세대 컴퓨터는 반도체와 함께 진화

양자컴퓨터와 바이오컴퓨터 같은 차세대 컴퓨터의 공통점은 아무리 좋은 기술이라도 경제성이 뒷받침되어야 한다는 점입니다. 일부 업체와 연구소에서 만든 양자컴퓨터가 존재해도 제대로 활용하지 못하는 이유가 여기에 있습니다. 냉전 시절 돈에 구애 받지 않고 경쟁적으로 우주개발을 했으나 이후부터 뜸해진 것도 마찬가지입니다. 이른바 ‘아폴로 시대의 종말’입니다.

그렇다고 해서 연구를 소홀히 해도 곤란합니다. 아무리 다양한 반도체 기술이 등장하더라도 과도적인 형태에 불과하고 고전물리학에 기초하고 있으므로 언젠가는 한계에 다다를 수밖에 없죠. 5나노 이하, 3나노까지도 가능하다고 업계에서는 이야기합니다. 이후에는 어떻게 될까요? 아무도 예단할 수 없습니다.

따라서 기술과 경제성이 모두 검증된 반도체와 새로운 컴퓨터 기술의 융합은 선택이 아닌 필수입니다. 그리고 중심에는 사람이 위치해야 합니다. ‘인지컴퓨팅(Cognitive Computing)’이 등장한 계기도 여기에 있습니다. 폭발하는 데이터, 이를 처리하기 위한 고성능 컴퓨터가 왜 필요한지 곱씹어볼 필요가 있다는 뜻입니다.

딱 10년 전으로 시계를 돌려보겠습니다. 애플에서 오리지널 아이폰을 발표하고 아이폰 3G를 내놓을 시기네요. 그리고 이 제품은 전 세계를 뒤바꾸는 원동력 가운데 하나가 됐습니다. 지금은 다양한 비즈니스가 스마트폰 기반에서 작동합니다. 이제까지 존재하지 않던 생태계가 자연스럽게 돌아가고 있습니다. 당연히 반도체가 핵심이 되었음은 의심할 여지가 없습니다.

 

앞으로의 10년도 크게 다르지 않을 것이지만, 기술의 발전속도는 가속도가 붙어 훨씬 빨리 개선될 겁니다. 여기서도 여전히 반도체가 중심이고 차세대 컴퓨터와 함께 이제껏 경험치 못한 디지털 세상을 펼쳐주리라 확신합니다. 그래서 NPU, 양자컴퓨터 등 저마다 비밀무기를 개발하고 있지요. 이 중심에 우리나라 기업이 있기를 믿어 의심치 않습니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/biocomputer/feed/ 0
올해 스마트폰 두뇌 사양은? ‘인메모리 컴퓨팅’ 이제부터 시작 /this-years-smartphone-brain/ /this-years-smartphone-brain/#respond Mon, 08 Jan 2018 15:00:00 +0000 http://localhost:8080/this-years-smartphone-brain/ 메인 최종_수정.png

‘인메모리 컴퓨팅(In Memory Computing)’에 대해 들어본 적이 있나요? 현대사회 발전에 핵심적인 역할을 한 컴퓨터는 초기의 기계적인 부품에서 벗어나 트랜지스터 개발로 획기적인 전환점을 맞았죠. 인메모리 컴퓨팅은 비메모리에서 메모리로의 트렌드 전환을 의미합니다. 데이터를 담아두는 그릇이 상상 이상으로 커지고 속도가 빨라지면 세상은 이제까지와는 비교할 수 없을 정도의 변화가 예상되는데요. 오늘은 ‘속도의 혁신’이라 불리는 인메모리 컴퓨팅에 대해 알아보도록 하겠습니다.

시간이 흘러도 변하지 않는 가치, 메모리 용량

현대사회에서 흔히 볼 수 있는 컴퓨터는 대부분 ‘존 폰노이만(John von Neumann)’이 제시한 ‘폰노이만 구조’를 따르고 있습니다. 이른바 ‘프로그램 내장 방식’의 데이터 처리 구조는 ‘입력→처리→출력’이라는 흐름을 따름과 동시에 어딘가에 저장할 곳(메모리)을 필요로 합니다.

아톰(Atom)으로 구성된 아날로그 세상과 달리 디지털은 비트(Bit)를 최소단위로 사용하며, 지금까지와 전혀 다른 혁명을 가능케 합니다. 매사추세츠공과대학교(MIT) 미디어랩스 소장을 역임한 니콜라스 네그로폰테 교수는 저서인 <디지털이다(Being Digital)>에서 ‘전 세계의 디지털화’를 예상한 바 있죠. 그리고 이런 데이터는 돌고 돌아 새로운 가치를 만들어내며 21세기 유전이라 불리기까지 합니다.

조금 어려운 개념일 수 있지만, 결국 이런 데이터가 원활하게 흐르기 위해서는 클라우드뿐 아니라 엣지(Edge) 디바이스의 메모리 성능도 한층 강화되어야 합니다. 수많은 기기가 연결되어 있는 ‘커넥티드’ 세상에서 여전히 전통적인 ‘컴퓨팅’ 기능이 외면 받지 않은 이유 가운데 하나입니다.

현대인의 필수품이라 불리는 스마트폰도 마찬가지입니다. 매년 새로운 모델이 쏟아져 나오고 있지만, 변하지 않는 가치가 있습니다. 스마트폰은 여전히 애플리케이션 프로세서(AP) 속도를 높이고 메모리 용량을 늘리는 것에 초점이 맞춰져 있다는 것이죠. 예컨대 애플 아이폰만 하더라도 2007년에 나온 1세대 모델에서는 128MB D램과 4~16GB 낸드플래시를 탑재했습니다. 최근 나온 아이폰 텐(X)은 어떨까요? 3GB D램, 64~256GB 낸드플래시를 사용합니다. D램은 20배 이상, 낸드플래시의 경우 16배 이상 용량이 커졌습니다.

과거와 비교해 컴퓨팅에 필요한 메모리 용량은 빠른 속도로 늘어나고 있습니다. 마치 가속도가 붙어 눈덩이처럼 불어나는 모양새죠. 여기에는 AP와 같은 중앙처리장치(CPU)의 눈부신 발전이 결정적인 역할을 했습니다. 조금 돌아왔지만 강조하고 싶은 부분은 이겁니다. 폰노이만 구조를 채택하고 있는 대부분의 컴퓨터에서 처리 속도가 빨라질수록 메모리의 중요성이 더 커질 수밖에 없다는 사실입니다.

복잡해진 SoC, 더 커진 메모리에서 답을 찾다

1_3 (10).png

▲ 퀄컴이 공개한 최신 AP 스냅드래곤 845는 캐시메모리 용량을 크게 늘렸다.

따라서 메모리 시장이 어떻게 흘러갈지 예측하려면 시스템온칩(SoC) 결정판, 스마트폰 두뇌인 AP가 어떻게 바뀔지 살펴봐야 합니다. 현재 이 시장을 주름잡고 있는 것은 퀄컴의 ‘스냅드래곤’입니다. 통신 기능을 담당하는 모뎀칩, 그리고 CPU와 그래픽처리장치(GPU) 등 SoC의 성능을 결정하는 핵심요소가 골고루 균형이 맞춰져 있다는 것이 장점입니다. 특히 한 발 빠른 모뎀칩 대응은 혀를 내두를 지경입니다. CPU, GPU 성능이 최고라고는 할 수 없지만 어느 것 하나 모난 곳이 없는 다재다능한 AP라고 볼 수 있죠.

특히 내년 전 세계 주요 프리미엄 스마트폰에 탑재될 ‘스냅드래곤 845’에서 눈여겨 볼 부분은 메모리입니다. 전작인 ‘스냅드래곤 835’보다 성능이 더 높아졌음에도 불구하고 칩 사이즈를 거의 그대로 유지하면서 버퍼 역할을 하는 캐시메모리(S램) 용량을 크게 늘렸기 때문입니다. CPU, AP에 달라붙는 캐시메모리는 코어(Core)에 근접한 순서에 따라 레벨1(L1), 레벨2(L2), 레벨3(L3) 등으로 구별하고 용량은 ‘L3>L2>L1’ 순으로 많습니다. 스냅드래곤 845의 경우 코어마다 L2 캐시메모리가 제공되며 2MB 용량의 L3 캐시메모리가 새롭게 추가됐습니다. 여기에 더해 3MB 시스템 캐시메모리를 얹었습니다. L3와 시스템 캐시메모리를 더하면 5MB 용량을 제공하죠. 인텔 코어 i3와 비슷한 수준입니다.

AP의 성능이 높아졌으니 메모리도 보조를 맞춰야 합니다. 올해부터 나온 AP는 ‘LPDDR4X’를 지원합니다. LPDDR4X는 ‘LPDDR4’보다 전력소비량은 적으면서도 속도를 더 빠르게 설계한 모바일에 최적화된 D램입니다. 코어 전원 전압(VDD2)과 출력 전압(VDDQ)을 분리시키고, VDD2와 VDDQ가 1.1볼트(V)이었던 LPDDR4와 달리, VDD2는 동일하지만 VDDQ를 0.6V로 낮춘 것이 특징이죠. 캐시메모리가 늘어나면 D램은 상대적으로 부담을 덜 수 있습니다. 속도보다는 용량을 더 키울 수 있는 여지가 생겼다는 의미입니다.

인메모리 컴퓨팅, 빅데이터 시대의 필수조건

1_4 (9).png

▲ 미세공정 한계에도 불구하고 마이크로프로세서 내부의 캐시메모리는 계속해서 확장되어 왔다. (출처: 인텔)

4차 산업혁명 시대의 메모리 요구사항은 ‘대역폭’, ‘용량’, ‘지속성’을 꼽을 수 있습니다. D램과 같이 주메모리로 쓰이는 반도체는 CPU와 비교했을 때 여전히 속도가 느립니다. 인공지능(AI), 빅데이터, 클라우드 시대에 더 빠르고 전력소비량이 낮은 메모리가 필요하다는 점에서 기술전환이 필요하지만 비트성장이 한계에 다다른 상황이라 어떻게든 혁신이 이뤄져야 합니다. 이 과정에서 등장한 것이 바로 ‘인메모리 컴퓨팅(In Memory Computing)’입니다.

인메모리 컴퓨팅이란 디스크(보조저장장치)가 아닌 메모리상에 데이터를 저장해 두고 처리하는 것을 일컫습니다. 컴퓨팅 속도저하의 근본원인인 입출력(I/O)을 개선하는 데 중점을 두고 있죠. 인메모리 컴퓨팅의 가장 큰 장점은 ‘속도의 혁신’입니다. 단순히 과거에 했던 업무의 처리 속도가 빨라진다는 것을 의미하는 것은 아닙니다. PC 성능이 2배 좋아졌다고 해서 내가 처리하는 업무 능률이 같은 수치로 올라가지는 않는 것과 마찬가지입니다. 다만 빨라진 속도를 통해 과거에는 엄두도 내지 못했던 일들을 할 수 있게 만든다는 점이 매력적입니다. 전혀 새로운 차원의 비즈니스 혁신이 가능해지는 셈입니다.

낸드플래시가 대중화되면서 하드디스크드라이브(HDD) 대신 솔리드스테이트드라이브(SSD)가 널리 쓰이고 있죠. 구형 PC라도 HDD에서 SSD로 바꾸면 운영체제(OS) 부팅 속도는 물론, 전반적인 시스템 쾌적성이 이전과 비교할 수 없을 정도로 개선됩니다. 그런데 이런 SSD도 D램 속도에 비하면 한참 느립니다. 만약, D램에 OS나 프로그램을 설치해 사용한다면 어떻게 될까요? HDD→SSD와는 또 다른 세계가 열릴 것이라 확신합니다.

물론 D램은 휘발성 메모리라 전원이 꺼지면 저장된 데이터가 사라져버립니다. 하지만 SSD와의 적절한 협력, 3D 크로스포인트와 같은 차세대 메모리의 등장, 그리고 한층 빨라지는 CPU‧AP와 맞물려 사용한다면 새로운 돌파구가 마련될 수 있습니다. 메모리 중심의 컴퓨팅을 표방하는 ‘Gen(젠)―Z 컨소시엄’의 목적도 크게 다르지 않죠. 처리장치에서 저장장치로의 주도권 전환을 노리고 있습니다.

이는 빅데이터의 집합체인 데이터베이스(DB)의 구조를 완전히 바꿀 수 있는 원동력으로 작용하죠. 데이터 트랜잭션 처리와 분석을 하나의 DB에서 처리할 수 있다는 뜻입니다. 이제까지는 트랜잭션 시스템과 분석 시스템을 별도로 운영해왔는데, 트랜잭션 시스템에서 분석을 할 경우 속도가 무척 느렸기 때문입니다. 일정한 주기로 데이터를 분석 DB로 옮길 필요가 없이 인메모리 컴퓨팅을 사용하면 실시간으로 발생하는 데이터를 분석 대상으로 삼을 수 있습니다.

누구나 만들어내는 데이터? 어떻게 활용하느냐에 방점

1_5 (8).png

▲ 인메모리 컴퓨팅은 메모리 반도체 중심의 주도권 전환과 맞물릴 가능성이 높다. (출처: IBM)

다시 돌아와서, 처리장치와 저장장치는 서로 보조를 맞추며 발전을 거듭했습니다. 최근에는 반도체 미세공정의 한계로 인해 용량이나 대역폭을 늘리는 추세가 강해지고 있습니다. CPU‧AP와 같은 마이크로프로세서에서 캐시메모리 용량 확대는 아키텍처 변화보다 미세공정 개선으로 얻는 이득이 더 많을 때 쓰이는 방법입니다. 인텔이나 AMD, IBM 등이 모두 이런 방식을 택했죠. 바꿔 말하면 퀄컴의 AP 아키텍처는 올해 극적으로 바뀔 가능성이 높으며, 스냅드래곤 845에서 늘어난 캐시메모리는 한꺼번에 밀려드는 데이터를 처리하는데 있어 유리하게 작용할 것으로 예상됩니다.

 

세상은 빠른 속도로 바뀌고 있습니다. 20세기의 석유가 그랬듯, 데이터는 21세기에 무한한 가치창출을 예고하고 있습니다. ‘구슬이 서말이라도 꿰어야 보배’라는 옛말처럼 빅데이터도 잘 써먹어야 그만한 효과를 누릴 수 있습니다. 인메모리 컴퓨팅은 목적 달성을 위한 도화지로 이제 첫 발걸음을 시작했을 뿐입니다. 그 중심에 SK하이닉스와 같은 우리 기업이 있다는 사실만으로도, 이제껏 생각지 못했던 새로운 가능성에 대한 기대감을 갖게 합니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/this-years-smartphone-brain/feed/ 0
반도체올림픽 ISSCC, SK하이닉스는 어떤 신기술을 내놨을까? /olympic-isscc/ /olympic-isscc/#respond Tue, 28 Nov 2017 15:00:00 +0000 http://localhost:8080/olympic-isscc/ 메인 수정 (8).png

어느 분야에나 최고를 뽑는 자리가 있죠. 꼭 경진대회가 아니더라도 서로의 실력을 겨루는 행사 말입니다. 조만간 열릴 강원도 평창 동계패럴림픽이 대표적입니다. 반도체 분야에도 역시 ‘국제 고체 회로 학술회의(International Solid-State Circuit Conference, ISSCC) 가 있습니다. 내년 2월 11일부터 15일까지 미국 샌프란시스코에서 열리며, 대회 주제는 ‘사회화된 세상을 이루는 실리콘(Silicon Engineering a Social World)’ 이라고 합니다. SK하이닉스는 이번 ISSCC에서 ‘반도체 국가대표’로서의 역할을 톡톡히 해냈다고 합니다. 과연 어떠한 성과를 거두었는지 함께 살펴보도록 하겠습니다.

반도체 강국 대한민국, ISSCC서 웃었다

ISSCC는 세계적으로 가장 큰 반도체 설계 학술대회로 지난 1954년 처음 설립돼 올해로 65회째를 맞이했습니다. 반세기의 역사를 가지고 있는 만큼 반도체 역사에 있어서도 굵직한 사건이 여러 차례 발생했습니다. 매년 25개국, 4000명 이상의 학자와 연구원이 실리콘밸리에 모여 회로 설계 분야의 최신 연구 성과와 정보를 교환하고 반도체 산업의 미래에 대해 토론하는 자리이니 당연한 일인지도 모르겠습니다.

특히 우리나라는 올해 역대 최고 성적을 거뒀습니다. 지난해에 이어 논문 채택 2위에 오른 것인데요. 물론 숫자에 있어서도 34편이 채택, 지난해 기록(25편)을 가뿐하게 뛰어넘었습니다. 전 세계에서 611편의 논문이 제출됐고 이 가운데 202편만 채택됐는데, 우리나라가 25편이라는 것은 대단한 성과입니다. 참고로 SK하이닉스는 메모리 분과에서 3편의 논문을 넣는데 성공했습니다.

사실 우리나라는 D램, 낸드플래시와 같은 메모리 반도체에서 초강세입니다. 이 분야에서는 경쟁자를 찾아보기 어려울 정도죠. 우리나라에서 제출된 논문만 채택된 경우가 있을 정도이니 더 이상 말이 필요 없을 듯합니다. 분과별로는 메모리(8편)가 가장 많았으며 이미지와 디스플레이 센서를 포함한 IMMD(6편), 파워매니지먼트(6편), 디지털 서킷(3편), 아날로그(2편) 순이었습니다.

더 빠르게! 초고속 D램

메모리 분과에서는 어떤 일이 벌어졌을까요? 올해는 총 4개 세션에서 15편의 논문이 발표됐는데요. 아시아에서 14편, 북미에서 1편으로 구성됐습니다. 그리고 아시아 14편의 논문에서 8편이 한국에서 나왔습니다. D램 세션 5편 중 5편, 플래시 메모리 세션의 3편 중 2편이 해당됩니다. 극단적으로 말하면 한국이 메모리 반도체에서 연구개발(R&D)을 하지 않으면 지구상 모든 디지털 기기의 메모리 용량은 늘어나기 어려울 겁니다.

그렇다면 SK하이닉스는 어떤 논문을 선보였는지 궁금해지는데요. SK하이닉스는 영원한 맞수(?) 삼성전자와 함께 16Gbps 입출력(I/O) 속도를 가진 GDDR6 D램을 발표했습니다. GDDR6는 이전 시간에 자세히 설명한 바 있는데요. 고속으로 데이터를 전송하는 그래픽 전용 D램입니다. 내년에 선보일 최신 그래픽처리장치(GPU)와 함께 궁합을 맞출 예정이죠.

SK하이닉스와 삼성전자가 선보인 GDDR6는 목표가 동일합니다. 누가 더 빠르게 데이터를 처리하느냐에 초점이 맞춰졌습니다. SK하이닉스는 16Gbps, 삼성전자가 18Gbps의 사양으로 각각 내놨습니다. 수치로 보면 삼성전자가 근소한 차이로 더 빨랐네요. SK하이닉스가 올해 4월 세계 최초로 GDDR6 개발을 완료했다고 발표한 것에 영향을 받은 것으로 보입니다.

SK하이닉스도 가만히 있지 않았습니다. 무려 341GB/sec(초)의 속도를 가진 ‘2세대 고대역폭 메모리(High Bandwidth Memory, HBM2)’를 내놨습니다. GDDR6의 속도가 16Gbps라고 언급했는데, 이는 핀(Pin) 1개를 기준으로 한 것입니다. GPU의 메모리 버스가 384비트라고 가정하면 최대 768GB/sec(16×384÷8)의 데이터 전송이 가능한 겁니다.

3_5 (3).png

▲ SK하이닉스는 HBM의 원조다. ISSCC 2018에서 세계에서 가장 빠른 HBM2 메모리를 내놨다. (출처: SK하이닉스)

그렇다면 HBM2는 어떨까요? 341GB/sec이니 GDDR6의 768GB/sec보다 성능이 낮은 것으로 보입니다. 하지만 비트(Bit)와 바이트(Byte)는 서로 단위가 다르죠. 8비트(b)는 1바이트(B)입니다. 따라서 SK하이닉스가 내놓은 HBM2는 메모리 버스를 조금만 늘리면 GDDR6와는 비교가 되지 않을 정도로 높은 속도로 데이터를 처리할 수 있습니다.

2015년 삼성전자가 제출한 HBM2 논문을 엿보면 정답이 나옵니다. 당시 삼성전자는 20나노 기반의 307GB/sec의 HBM2 논문으로 ISSCC에 채택됐습니다. 이번에는 SK하이닉스가 34GB/sec 더 높은 성능을 내는 제품의 개발에 성공했다고 생각하면 됩니다.

기왕 HBM2 이야기가 나왔으니 조금만 더 살펴보겠습니다. GDDR6도 그렇고 왜 이렇게 대역폭에 목을 매는 걸까요? 바로 중앙처리장치(CPU)와 보조를 맞추기 위해서입니다. CPU는 엄청나게 빠른 속도로 작동하는데, 메모리는 뒤를 따라가기가 벅찹니다. 바로 병목현상이 발생하는 이유가 바로 여기 있습니다. CPU 내부에 L1, L2, L3와 같인 S램 기반의 버퍼(캐시) 메모리가 마련되어 있는 것도 병목현상을 줄이기 위해서입니다.

바꿔 말하면 메모리 속도가 빨라질수록 우리가 사용하는 PC와 스마트폰 성능은 대폭 높아질 것이 분명합니다. 하드디스크드라이브(HDD)에서 솔리드스테이트드라이브(SSD)로 교체했을 때처럼 사용자가 피부로 느낄 정도죠.

이번에는 용량, 칩 하나당 2GB

3_6 (4).png

▲ D램 미세공정이 정교해질수록 모듈 하나에 장착할 수 있는 칩의 개수는 유지하면서도 용량은 크게 늘릴 수 있다. (출처: SK하이닉스)

GDDR6, HBM2에 이어서 SK하이닉스의 마지막 논문은 핀 1개당 3.2Gbps의 속도를 내면서도 용량은 16Gb를 구현한 DDR4 SD램입니다. 불과 몇 년 전까지만 하더라도 D램 용량을 극복하기 위해 실리콘관통전극(Through Silicon Via, TSV) 기술을 활용했습니다. HBM도 이 기술로 용량을 크게 늘렸습니다. 하지만 TSV는 인터포저에 들어가는 가격이 높은 데다가 아직까지 만족할만한 수율은 아닙니다. HBM이 고가 GPU나 인공지능(AI) 서버를 위주로 채택된 이유가 여기에 있습니다.

하지만 SK하이닉스의 16Gb DDR4 SD램은 TSV가 필요 없이 고용량 D램을 만들 수 있습니다. 칩 하나당 2GB의 용량 구현이 가능합니다. 보통 PC용 D램 모듈이 단면 8개, 양면 16개의 칩을 사용하니까 최대 16GB로 제작할 수 있겠네요. 메모리 슬롯이 4개인 PC라면 64GB(16×4)의 메모리 용량을 가지는 겁니다. 서버용 D램 모듈은 PC보다 장착되는 칩의 개수가 훨씬 많은데요. 단면으로 20개, 양면으로 40개가 사용되는 경우도 흔합니다. 이 경우 40개의 칩을 사용한다면 무려 D램 모듈 하나의 용량은 640GB(16×40)에 달합니다. D램 모듈을 2개만 써도 1280GB, 그러니까 1.25TB의 메모리 용량이 됩니다.

3_7 (3).png

▲ D램은 커패시터 용량을 어떻게 늘리면서 AR 문제를 해결하느냐에 달렸다. (출처: SK하이닉스)

D램 용량이 늘어났다는 것은 그만큼 미세공정에 힘을 쏟았다는 방증입니다. 반도체 업계가 성장해온 원동력이기도 합니다. 웨이퍼 한 장에서 뽑아내는 반도체 칩을 늘리면서 성능을 높여왔던 것이 핵심이죠. 특히 D램은 CPU나 GPU 등 시스템 반도체와 달리 커패시터의 A/R(Aspect Ratio) 문제로 개발 작업에 어려움이 큽니다. 전하 저장 유무로 1과 0을 판단하는 커패시터 용량을 늘리기가 갈수록 어려워지고 있기 때문입니다.

커패시터 용량이 줄어들면 데이터 보관 시간이 짧아지고 전력 누출량은 증가해 불량률이 높아집니다. D램 업계는 좁아진 셀 면적 위에서 커패시터를 수직으로 길쭉하게 올리는 방법(3D, 적층)으로 용량을 사수해왔지만 10나노급 D램에서는 이 방법도 한계에 다다를 것으로 보입니다. 어쨌든 이번 16Gb 용량의 D램으로 또 다시 한계극복을 해냈네요.

반도체 올림픽, 더 큰 세상을 보다

ISSCC에서 우리나라는 꾸준히 좋은 성적을 올렸습니다. 하지만 일각에서는 메모리 반도체에만 너무 치중되어 있다는 지적을 받기도 합니다. 물론 다양한 분과에서 골고루 성적을 올리는 것도 중요하지만, 메모리 반도체에서 이만큼 성적을 냈다는 사실 자체는 분명 대단한 성과입니다. 앞서 말했듯 우리나라 업체가 메모리 반도체 R&D를 하지 않으면, 전 세계 디지털 기기 시장은 마비됩니다. 물론 비메모리 반도체에서도 세계 최고가 될 수 있도록 노력을 기울여야 할 것입니다.

학계에서 ISSCC는 반도체 세계무대의 등용문으로 인지되어 있습니다. 소속, 나이, 성별 등에 구애 없이 누구라도 도전할 수 있습니다. 최근에는 아예 누가 논문을 썼는지도 가렸습니다. 혹시라도 심사 과정에서 이름값에 현혹되지 않으려는 노력입니다. 그만큼 ISSCC는 오직 실력으로만 인정받는 공정한 무대입니다. 괜히 반도체 ‘올림픽’이 아닌 것이죠.

 

우리 국민이 어렵고 힘들 때 국가대표가 출전한 스포츠 경기는 항상 큰 위안이 되어 왔습니다. 분야는 다르지만 반도체도 같은 마음이라고 믿습니다. 그런 의미에서 밤늦게까지 R&D에 매진하는 반도체 연구원들 역시 우리에게 큰 힘이 되는, 디지털 시대의 국가대표가 아닐까요?

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/olympic-isscc/feed/ 0
그래픽을 넘어서다! AI 향기 맡고 떠오르는 GDDR6 /go-beyond-graphics/ /go-beyond-graphics/#respond Mon, 30 Oct 2017 15:00:00 +0000 http://localhost:8080/go-beyond-graphics/ 2 (20).png

시간이 흐를수록 끊임 없이 발전하는 3D 그래픽카드! 그래픽카드는 메모리의 용량이 크고, 속도가 빠를수록 고해상도의 그래픽을 구현하는데요. SK하이닉스는 올해 말, 세계 최고 속도의 차세대 그래픽 D램 ‘GDDR6’ 공개를 앞두고 있다고 합니다. 특히 미래산업의 핵심 기술로 꼽히는 AI에 초점을 맞추었다고 해 더욱더 기대가 쏠리고 있습니다. 지금의 GDDR6에 이르기까지 3D 그래픽카드 메모리의 발전 과정을 살펴보고, 4차 산업혁명 속 GDDR6의 역할과 전망을 함께 알아보겠습니다.

3D 그래픽카드 메모리의 20년 역사

지금으로부터 약 20년 전, 개인용 PC는 큰 변화를 겪었습니다. 특히 그래픽카드는 3D에 대한 요구가 강했는데, 이는 콘솔 게임기의 영향이 지극히 컸습니다. 오락실에서만 맛볼 수 있던 3D 그래픽을 가정에서 즐기는 것이 가능해지면서 나타난 현상이었죠.

당시만 하더라도 PC에서 3D 그래픽은 전문가를 위한 콘텐츠에 불과했습니다. 486 중앙처리장치(CPU) 시대에 엔비디아의 첫 번째 그래픽 칩(당시는 GPU라는 개념이 없었습니다) ‘NV1’을 이용한 3D 그래픽 가속기가 선보인 적이 있으나 본격적인 전성기에 이르기까지는 시간이 조금 더 필요했습니다.

이즈음에 PC는 3D 그래픽 지원을 위한 밑그림 그리기에 착수했습니다. 더 많은 데이터를 처리하려면 그에 걸맞은 버스와 인터페이스를 갖춰야 했죠. 그래서 나온 것이 AGP(Accelerated Graphics Port)입니다. AGP는 기존의 PCI(Peripheral Component Interconnect)보다 VGA(Video Graphics Array)에 더 알맞게 설계되었는데요. CPU와 직접 연결이 가능했으며, 텍스처(Texture·3D 그래픽에 질감을 표현하기 위한 이미지)가 필요할 때 GART(Graphics Address Remapping Table)를 통해 주메모리에서 곧바로 읽을 수 있었습니다.

AGP의 등장으로 인해 3D 그래픽을 더 빠르게 처리할 수 있게 되었고, VGA는 그래픽처리장치(GPU)로 진화할 수 있었습니다. 여기에 발맞춰 그래픽 메모리도 D램이 아닌 SG램이 활용되기 시작했습니다. 이전 시간에 SG(Synchronous Graphics)램에 대해 설명한 적이 있는데요. 간단하게 말해 SD(Synchronous RAM)의 그래픽 버전이라고 생각하면 됩니다.

재미있는 점은 SG램이 처음에 D램보다 저렴하게 사용할 메모리로 설계됐었다는 것입니다. 정확하게는 V램(Video RAM)이나 W램(Window Ram)보다 싸면서 GPU에 더 최적화된 제품을 만드는 것이 목표였죠. 이를 위해 클록을 D램보다 빠르게 작동하도록 했는데요. 지금은 D램과 마찬가지로 ‘더블 데이터 레이트(Double data rate·DDR)’ 기술이 적용되어 있어 클록 하나에 두 번의 데이터를 전송할 수 있습니다.

현재 GPU에 쓰이는 그래픽 메모리는 모두 DDR SG램의 후손입니다. 그래서 이름도 GDDR로 부르고 있죠. GDDR는 클록·전력소비량·데이터 처리 능력을 계속해서 발전시키면서 ‘GDDR2→ GDDR3→ GDDR4→ GDDR5(X)→ GDDR6’로 진화하게 됐습니다. 기본적으로 GDDR는 데이터를 읽고 쓰는 통로인 ‘스트로브(Strobe)’의 숫자가 D램보다 많습니다. 기술이 발전하면서 스트로브 자체를 분리하기까지 했습니다.

D램에서 분리된 V램, 그래픽 메모리의 첫 등장

GDDR를 이해하기 위해서는 V램부터 살짝 엿봐야 합니다. 반도체 역사에 흔히 나오는 기업인 IBM이 여기서도 언급됩니다. 지난 1980년 처음 개발된 V램은 ‘듀얼포트’를 가지고 있어 데이터를 동시에 읽거나 쓸 수 있는 것이 특징입니다. 일반적인 D램은 싱글포트여서 한 번에 데이터 읽기‧쓰기가 안됐습니다. 듀얼포트 가운데 하나는 SAM(Sequential Access Memory)으로 불리며 순차접근이 가능했습니다.

순차접근은 말 그대로 순차적으로 데이터를 불러온다는 의미인데요. 이는 PC가 화면을 나타낼 때 순차적으로 작업이 이뤄진다는 점을 활용한 것입니다. 모니터나 윈도 디스플레이 설정에서 ‘주사율’이라는 말을 접할 수 있는데, 주사율은 헤르츠(Hz) 단위로 나타냅니다. 예컨대 60Hz이면 초당 60번 화면이 깜빡이고 있다는 얘기입니다. 한 번 화면이 깜빡일 때마다 두 가지 방법으로 화면을 그리는데, 이것이 바로 순차주사(Progressive Scanning)와 비월주사(Interlaced Scanning)입니다. 쉽게 말해 V램은 순차주사에 필요한 별도의 데이터 통로를 마련해 더 빠른 그래픽을 처리할 수 있다고 생각하면 됩니다.

2_5 (9).png

▲ 소니 플레이스테이션2 메인보드. 콘솔 게임기는 그래픽 메모리를 내장해 용량은 작지만 극단적으로 대역폭을 끌어올렸다. (출처: 소니)

그런데 SG램은 듀얼포트가 아닌 싱글포트입니다. 그래픽 작업에 있어 그래픽 메모리의 역할은 CPU와 GPU가 처리하기 위한 데이터를 담아두는 일이기 때문입니다. 주메모리의 역할과 마찬가지죠. 다른 것이 있다면 속도인데요. 특히 3D 그래픽은 메모리의 용량보다는 속도, 특히 대역폭에 민감하게 반응합니다.

앞서 언급했던 콘솔게임기를 들여다보면 알 수 있습니다. 소니나 마이크로소프트(MS) 등이 만든 콘솔게임기는 예외 없이 GPU와 그래픽 메모리를 하나로 묶어 넓은 대역폭을 확보하려고 애를 썼습니다. 주메모리가 용량이 중요하다면 비디오 메모리는 속도가 더 우선시됩니다. 당연한 얘기이지만 용량까지 많으면 더없이 좋겠죠?

GDDR, 고속으로 데이터를 전송하다

2_3 (9).png

▲ SK하이닉스는 AMD와 함께 세계 최초로 HBM을 상용화한 바 있다. (출처: AMD)

다시 GDDR로 돌아와서, 그래픽 메모리는 속도와 효율을 높이는 데 중점을 두면서 발전을 거듭했습니다. 그러다가 고대역폭 메모리(High Bandwidth Memory, HBM)가 등장함에 따라 극적인 변화가 일어납니다. 다수의 D램을 적층해 대역폭을 최대한 끌어올린 HBM은 AMD와 SK하이닉스가 세계 최초로 상용화한 바 있습니다. 아쉬운 게 있다면 가격이 너무 비싸다는 것이죠. HBM2까지 시장에 나와 있지만 아직까지 이를 채용한 그래픽카드는 일반 사용자가 구입하기에는 부담이 큽니다.

이런 틈새를 공략해서 마이크론은 GDDR5X를 내놓기도 했습니다. HBM 대신 GDDR5X를 선보인 이유는 그만큼 미세공정 전환이 어렵기 때문입니다. 당장 HBM만 하더라도 삼성전자와 SK하이닉스만 생산이 가능하죠. 최대 메모리 대역폭에 있어서도 HBM2는 1TB/sec에 달하지만 GDDR5X의 경우 768GB/sec에 그칩니다. 물론 이 정도도 상당히 높은 수치라고 할 수 있죠. GDDR5는 최대 메모리 대역폭이 336GB/sec에 불과합니다.

2_6 (8).png

▲ GDDR6는 QDR를 통해 고속으로 데이터를 전송할 수 있도록 했다.

그렇다면 GDDR6는 어떨까요? GDDR6는 최근 국제반도체표준협의기구(Joint Electron Device Engineering Council, JEDEC)에서 표준이 확정됐는데요. 방향성은 명확합니다. 고속으로 데이터를 전송하면서 전력소비량은 더 낮추는데 있죠. 다만 빠르게 데이터를 전송하다 보면 신호와 신호가 간섭을 일으키는 ‘크로스토크(crosstalk)’가 발생합니다. 이를 해결하기 위해 신호선 사이에 그라운드(접지·GND)와 함께 특별한 신호를 넣었죠. 데이터가 오염되는 것을 최대한 막았다고 보면 됩니다.

GDDR6의 놀라운 점은 더 있습니다. 바로 고도화된 ‘DDR’입니다. DDR이 클록 한 번에 두 번의 데이터를 내보낸다고 했는데요. GDDR6는 시스템 클록(CK)과 이를 두 배로 높인 데이터 클록(WCK)을 모두 사용하는데, 이 과정에서 클록을 4배로 높여줍니다. ‘쿼드 데이터 레이트(Quad Data Rate·QDR)’ 기술을 이용하는 것이죠. 참고로 QDR는 그래픽 메모리에서 GDDR5부터 적용되기 시작했습니다. 정리하면 GDDR5와 GDDR6의 CK가 1.75Gbps라고 했을 때, GDDR5는 최종 데이터(DQ) 속도가 7Gbps에 그칩니다. 이와 달리 GDDR6의 경우 14Gbps까지 올릴 수 있습니다.

GDDR6, AI · VR 시대의 대중화를 이끌다

2_4 (10).png

▲ 올해 4월 발표된 SK하이닉스의 GDDR6 그래픽 메모리 (출처: SK하이닉스)

GDDR6는 인공지능(AI) 시대에 있어 가장 대중적인 메모리가 될 전망입니다. 앞서 언급했듯이 HBM은 너무 비싸기 때문입니다.. 양대 GPU 업체인 AMD와 엔비디아가 최신 제품에 GDDR6 채용을 적극적으로 서두르는 이유가 여기에 있습니다. 최근 GPU가 AI에 있어 제법 효율적인 반도체라는 것이 증명되고 있는데요. 엄청나게 많은 데이터를 병렬로 처리하는 데 최적화됐다는 점에서 CPU보다 한결 유리한 것이 사실입니다.

AI에 가장 열의를 보이는 엔비디아만 하더라도 오래전부터 GPU를 통해 슈퍼컴퓨터를 대체하는 것은 물론 자율주행차에까지 적용하는 등 쓰임새 확대에 나선 상태입니다. 이는 CPU와 GPU의 구조가 완전히 다르기 때문입니다. GPU는 병렬연산에 최적화되어 있어 수많은 코어를 칩 안에 집적시켰으며, 한 번에 처리할 수 있는 데이터양을 기하급수적으로 늘릴 수 있습니다. 하지만 단순히 데이터만 빨리 처리할 수 있으면 곤란하겠죠? 이를 뒷받침할 수 있는 그래픽 메모리는 선택이 아닌 필수입니다.

SK하이닉스는 올해 4월 20나노급 8Gb GDDR6를 개발했다고 발표한 적이 있습니다. 전통적으로 그래픽 메모리에 있어 상당히 강한 모습을 보였기 때문에 이번에도 발 빠르게 시장에 대처했다고 봅니다. AI뿐 아니라 가상현실(VR), 자율주행차, 울트라HD(UHD) 이상의 고화질 디스플레이 지원 등에 필수적인 메모리 솔루션으로 각광받고 있다는 점에서 앞으로의 미래가 밝습니다.

 

그동안 그래픽 메모리는 주메모리와 비교해 발전 속도가 상대적으로 더 빨랐습니다. 과거를 되짚어보니 3D 그래픽과 함께 ‘그래픽 유저 인터페이스(GUI)’가 널리 보급되기 시작하면서부터 주메모리와 어깨를 나란히 했다는 것을 알 수 있었습니다. 용량도 주메모리보다 한참 작았지만 지금은 거의 엇비슷한 수준(4~8GB)까지 올라왔죠. AI와 VR 시대가 도래함에 따라 그래픽 메모리의 중요성은 한층 더 높아질 것으로 보입니다. 눈부신 기술 발전으로 4차 산업혁명에 어떤 영향을 끼칠지 벌써부터 기대됩니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/go-beyond-graphics/feed/ 0
3D 보다 더 어렵다! TLC 다음은 QLC? 낸드플래시 한계돌파 시작 /tlc-next-qlc/ /tlc-next-qlc/#respond Tue, 29 Aug 2017 15:00:00 +0000 http://localhost:8080/tlc-next-qlc/ 2_2 (1).png

요즘 반도체 시장이 호황이라는 말이 자주 나옵니다. CPU나 AP, MPU 등 다양한 반도체들이 상승세에 있지만, 전세계 반도체 시장에서 메모리반도체가 차지하는 비중이 상당하기 때문에 반도체 시장의 호황을 이끌고 있는 주역은 메모리반도체라고 할 수 있습니다. 특히나 최근 데이터 저장량이 늘어남에 따라 낸드플래시가 주목을 받고 있는데요. 점점 진화하고 있는 낸드플래시의 발전 가능성을 알아보겠습니다.

슈퍼사이클의 주역 중 하나, 낸드플래시

최근 반도체 슈퍼사이클 호황을 살펴보면 D램, 낸드플래시의 성장세가 단연 돋보입니다. 시장조사업체 IC인사이츠에 따르면 반도체 시장에서 가장 큰 비중을 차지하고 있는 D램은 올해 642억달러(약 72조1900억원)로 2위인 마이크로프로세서유닛(MPU, 171억달러)의 3배 이상을 나타낼 것으로 예상됩니다. 특히 낸드플래시는 워낙 시장 수요가 강합니다. 과거 50% 이상을 기록했던 비트그로스(Bit Growth, 비트 단위로 환산한 생산량 증가율)가 20%대로 하락해 안정적인 가격을 유지할 수 있을 전망이죠.

2_5 (11).png

조금 바꿔서 생각해보면 낸드플래시의 용도가 D램과 다르다는 것을 발견할 수 있습니다. 두 제품은 모두 메모리반도체이지만 쓰임새가 다릅니다. 데이터를 담아두는 역할은 같으나 D램은 주메모리, 낸드플래시는 보조저장장치로 사용되죠. 어떤 차이냐고요? 한 마디로 PC나 스마트폰 전원이 꺼져도 데이터를 저장하는 용도로 낸드플래시가 더 많이 사용된다는 뜻입니다.

데이터 폭증, 낸드플래시로 다 저장

각종 기기가 인터넷에 연결되는 이른바 ‘커넥티드’ 세상으로 접어들면서 이들이 뿜어내는 데이터의 양이 커졌습니다. ‘데이터 폭증’이라 부르는 현상인데요. 데이터는 일단 만들어지면 어딘가에 저장해야 합니다. 그것이 클라우드이든 USB 메모리이든 말이죠. 그렇지 않으면 곧바로 사라지죠. 그런데 주메모리로 쓰이는 D램은 낸드플래시와 달리 용량을 무조건 늘린다고 해서 좋은 건 아닙니다.

둘 다 운영체제(OS)나 시스템의 영향을 받지만 일반적으로 주메모리는 보조저장장치보다 용량이 작습니다. 현재 주력으로 판매되는 PC의 D램 용량이 8GB 이상으로 좀처럼 늘어나지 않는 이유가 여기에 있습니다. 16GB를 장착해도 전체 성능에 끼치는 영향이 제한적이죠. 물론 어디까지나 일반적인 사용자 환경에서 그렇다는 이야기입니다. 서버와 같은 엔터프라이즈는 상황이 다릅니다.

2_4 (11).png

어딘가에 데이터를 저장해야 하는 이상 낸드플래시는 지금보다 더 많이 사용될 가능성이 높습니다. 흔히 보조저장장치하면 CD나 DVD와 같은 광디스크나 하드디스크드라이브(HDD)를 떠올리기 쉬운데요. 이전에는 훨씬 더 다양한 보조저장장치가 쓰였습니다. MD나 PD와 같은 광자기디스크, 테이프 드라이브, 그리고 플로피디스크나 집드라이브의 기초가 되는 자기필름판 등이 있었습니다. 현재 테이프 드라이브를 제외하고는 거의 명맥이 끊긴 상태죠. HDD가 그만큼 저렴해서인데, 낸드플래시가 대중화되면 자연스럽게 바통 터치가 될 것으로 보입니다. 솔리드스테이트드라이브(SSD)가 대중화되고 HDD는 백업용으로 쓰일 수 있다는 얘깁니다.

따라서 낸드플래시는 지금보다 더 저렴하면서도 용량을 크게 높아야 하는 숙명을 가지고 있습니다. 이제껏 등장한 보조저장장치의 목적이 이겁니다. 처음에는 수 메가바이트(MB)에 불과하지만 지금은 기가바이트(GB), 일부 제품은 테라바이트(TB)까지 나오고 있습니다. 지금까지 매우 성공적으로 시장에 진입했다고 해도 과언이 아니나 앞으로 과제가 없는 것은 아닙니다.

비트 늘어날수록 용량↑ 성능↓

낸드플래시는 어떻게 데이터를 저장할까요? 기본적으로 데이터를 저장하는 최소 단위인 셀(Cell)을 몇 비트(Bit) 저장하느냐에 따라 싱글레벨셀(SLC·1비트), 멀티레벨셀(MLC·2비트), 트리플레벨셀(TLC·3비트)로 구분합니다. 셀은 전류가 흐르는 비트라인(BL)과 데이터를 읽고 쓰는 워드라인(WL)의 각 교차점(크로스포인트)에 위치해 있습니다. 그리고 이 셀 내부에는 플로팅게이트(FG)에 전자를 채우고 비우는 방식으로 ‘0’과 ‘1’을 인식합니다. 그래야 디지털 방식으로 데이터를 저장하겠죠.

▲ 비트 수가 늘어날수록 복잡성도 커지지만 같은 공정에서 용량이 늘어나는 장점도 있다

FG는 절연체인 산화막으로 둘러쳐져 있습니다. 이 상태로 컨트롤게이트(CG)에서 높은 ‘+’ 전압을 걸어주면 ‘-’ 전자가 산화막을 통과해 FG로 들어갑니다. 그러면 데이터가 자연스럽게 기록되고, 기록된 데이터를 지우려면(산화막에 갇혀 있는 전자를 빼내려면) 반대로 기판에서 높은 ‘+’ 전압을 보내면 됩니다. 그러면 FG는 텅 비워지겠죠. SLC부터 TLC까지 모두 FG에 전자를 저장하는 원리는 같습니다. 다만 전자를 어떻게 구별하느냐가 관건입니다. 가령 2비트 MLC라면 ‘전자가 없다(00)’, ‘조금 있다(01)’, ‘중간쯤 있다(10)’, ‘많이 있다(11)’의 4단계로 구별할 수 있습니다. TLC는 8단계가 필요합니다.

수명도 마찬가지입니다. 산화막은 기본적으로 닫혀 있지만 CG에서 전압이 계속해서 들어오면 전자가 들락날락하면서 손상이 생깁니다. 같은 용량의 데이터를 1년 동안 썼을 때 전자가 상대적으로 덜 오고 가는 SLC는 오랫동안 셀을 유지할 수 있으나 MLC나 TLC는 상대적으로 수명이 짧아집니다. 결국 FG에 전자를 담아둘 때 어떤 상태인지 구분하는 경우의 수가 많고 전압의 세기를 촘촘하게 조절해야 하는 등 복잡성이 늘어나는 방식을 벗어날 수가 없습니다. TLC부터 오류 확인&수정(Error Check&Correct, ECC) 코드가 들어가는 이유입니다. 따라서 용량은 비트 수가 늘어날수록 증가하니 같은 공정이라면 성능은 ‘SLC>MLC>TLC’, 용량은 ‘TLC>MLC>SLC’라고 보면 됩니다. 비트 수가 늘어날수록 같은 공정에서 더 많은 용량을 집적할 수 있지만 읽고 쓰기와 같은 성능은 물론 안정성이 떨어집니다.

대중화에 접어든 TLC, 원동력은 컨트롤러

용량을 늘리기 위해 발생하는 문제를 해결하기 위해 반도체 업체는 컨트롤러와 펌웨어와 같은 소프트웨어 기술을 적극적으로 도입합니다. SSD에서 컨트롤러가 중요한 이유죠. 같은 업체의 낸드플래시를 사용하더라도 어떤 컨트롤러냐에 따라 성능에 큰 차이가 나타날 수 있습니다. 마치 자동차 엔진처럼 말입니다.

이 분야에서도 엔진컨트롤유닛(ECU)에 담겨 있는 소프트웨어 따라 엔진의 성능이 달라집니다. 이를 거꾸로 이용해 맵핑이라는 작업을 하면 엔진의 숨겨진 능력을 100% 발휘할 수도 있습니다. 그만큼 두뇌가 중요하다는 뜻이죠. 그래서인지 SSD 컨트롤러는 전·후방 업체를 가리지 않고 원천기술 확보에 혈안이 되어 있습니다. SK하이닉스도 LAMD, 아이디어플래시, 이노스터 컨트롤러 사업부, 소프텍 등을 인수합병(M&A)한 바 있습니다.

2 (26).png

▲ SK하이닉스는 자체 컨트롤러 기술을 갖추고 있다

낸드플래시는 이제 TLC를 넘어 쿼드레벨셀(QLC·4비트)까지 진화한 상태입니다. 몇몇 업체가 이미 QLC 도입을 발표했으며 관련 제품을 공개하기까지 했습니다. 당연히 단위면적당 용량을 늘리기 위해서입니다. 최근 4차 산업혁명 선제투자 성격으로 같은 데이터센터에서 서버의 수 보다는 서버 1대에 탑재되는 메모리반도체 용량을 높이려는 추세를 적극적으로 반영했다고 봐야 합니다. 당초 업계에서는 TLC가 2014년 대규모로 도입됐을 때 안정성에 의구심을 가졌으나 올플래시 스토리지 등 기업용 시장에서 성과가 나타나면서 MLC를 밀어낸 상태입니다. QLC도 초기에는 소비자용 제품인 클라이언트 SSD에 도입되고 이후에 엔터프라이즈 SSD로 전파될 것으로 보입니다.

가격 대비 용량, HDD 대체하는 SSD

QLC로의 진입은 3D와 같은 적층과 함께 맞물릴 것으로 예상됩니다. 일단 72단 이하에서 일부 저가형 모델에서 QLC를 적용한 이후 100단 이하에서 본격적인 대중화가 이뤄질 수 있습니다. 경쟁사보다 한시라도 빨리 유리한 가격 대비 용량을 구축해야 이 시장에서 경쟁력을 확보할 수 있기 때문입니다. SK하이닉스만 하더라도 72단 3D 낸드는 TLC가 우선적으로 개발됐을 정도죠. 그러니 이후에는 TLC가 기본이고 QLC를 옵션으로 염두에 두지 않을 수 없습니다.

2 (26).png

▲ HDD→SSD 시대로의 진입은 기정사실이지만 가격 대비 용량의 벽을 크게 넘어서야 한다

불과 몇 년 전까지만 하더라도 ‘SLC=고급형’, ‘MLC=중급형’, ‘TLC=보급형’이라는 인식이 있었죠. 하다못해 같은 스마트폰에서 MLC, TLC에 따라 성능차이가 난다면서 불만을 터뜨리는 소비자가 있었을 정도입니다. 이론적으로 MLC가 TLC보다 성능과 안정성에 더 좋을 수 있지만 지금은 큰 의미가 없게 됐습니다. 무엇보다 용량에 있어서 MLC는 TLC의 상대가 되지 못합니다. 이런 불만을 잠재운 것은 결국 3D와 컨트롤러 기술 덕분이고요. 앞으로 QLC 시대에서도 마찬가지 상황이 나타날 것으로 예측됩니다.

 

SK하이닉스는 72단 3D 낸드의 발 빠른 연구개발(R&D)과 자체 컨트롤러 기술 역량을 확보하고 있는 몇 안 되는 업체입니다. 이제는 질뿐만 아니라 양을 적극적으로 뿜어낼 시기로 진입하고 있어서 QLC를 통해 보조저장장치의 낸드플래시화가 한층 더 활발하게 일어나는 시기를 대비해야 합니다. 과연 어떤 기술을 무기로 우리에게 깜짝 놀랄만한 제품을 선보일지 벌써부터 궁금해집니다.

 

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/tlc-next-qlc/feed/ 0
뜨거운 여름, 메모리 열도 식혀주세요! CPU 따라잡기 위한 D램의 뜨거운 도전사 /memory-column/ /memory-column/#respond Wed, 02 Aug 2017 15:00:00 +0000 http://localhost:8080/memory-column/ 메인 이미지 3.png

PC, 스마트폰의 용량과 속도 향상에 영향을 준 것 중 하나는 바로 D램의 발전입니다. D램은 CPU 성능 향상을 따라잡기 위해 변화를 시도했는데요. 발열 등 변화에 따른 문제점을 해결하면서 성장하고 있습니다. 지속적인 발전을 위한 D램의 뜨거운 도전사(史)를 알아보겠습니다.

무어의 법칙이 가져다 준 득과 실

반도체 업계에서 가장 큰 영향을 끼친 이론이라면 인텔 창업자 고든 무어가 만든 ‘무어의 법칙(Moore’s Law)’을 빼놓을 수 없습니다. 단순히 개인용 컴퓨터(PC) 시대를 넘어서 정보통신산업(ICT)으로의 진입을 가능케 했다는 점에서 더욱 그렇습니다. 시장조사업체 IHS마킷(IHS Markit)에 따르면 지난 20년 동안 무어의 법칙을 통해 형성된 직간접적인 영향은 최소 3조 달러(약 한화 3,369조원)에서 최대 11조 달러(약 한화 12경 353조원)에 이르는 미국 국내총생산(GDP) 성장을 만들어낸 것으로 나타났습니다. 그만큼 중앙처리장치(CPU)의 발전이 눈부셨다는 의미이기도 합니다. CPU의 발전에 발맞춰 PC는 전 세계적으로 확산되기 시작했고 오늘날과 같은 스마트폰 시대가 등장할 수 있는 계기를 만들게 됩니다.

1 (25).png

▲ ‘무어의 법칙’의 주인공 고든 엘 무어(Gordon Earle Moore)

CPU는 크게 두 가지 관점에 맞춰 생각할 수 있습니다. 하나는 아키텍처이고 다른 하나는 클록입니다. PC에 장착되는 CPU는 인텔이 아니면 AMD이고 두 회사의 제품은 ×86 아키텍처를 씁니다. 스마트폰의 경우 지난해 소프트뱅크가 인수한 영국 설계자산(IP) 업체 ARM의 아키텍처가 대부분입니다. 아키텍처가 다른 CPU의 소프트웨어는 호환이 되지 않습니다. 안드로이드 앱을 윈도우가 설치된 PC에 곧바로 설치할 수 없는 이유죠. 가상운영체제 등을 이용하면 가능하긴 하지만 불편한 건 사실입니다.

클록은 어떨까요? 같은 아키텍처를 가지고 있는 경우라면 작동주파수인 클록이 높을수록 빠른 속도를 낼 수 있습니다. 당연히 데이터를 더 많이 처리할 수 있죠. 그런데 이게 전부는 아닙니다. 무어의 법칙 덕분에 CPU는 나날이 성능이 높아졌지만 주변에 있는 반도체는 그렇지 못했습니다. 그래서 일종의 완충장치인 버퍼를 두게 됐고 PC 성능의 발목을 잡는 병목현상을 줄이기 위한 처절한 줄다리기가 시작됩니다.

용량과 속도 모두 잡아야 하는 D램

퀴즈를 하나 내보겠습니다. PC 성능을 높이려면 D램의 클록을 높이는 게 좋을까요, 아니면 용량을 키우는 것이 더 나을까요? 일반적인 경우라면 정답은 용량입니다. 운영체제(OS)와 CPU에 따라 상황이 다르지만 주메모리 용량이 클수록 PC를 구성하는 각 부품의 부담이 한결 줄어듭니다. 이는 워크스테이션이나 서버, 심지어 슈퍼컴퓨터도 다르지 않습니다. 최근 반도체 호황의 이유도 여기서 찾을 수 있습니다. 클라우드를 통해 다양한 서비스를 제공하기 위해서는 한정된 인터넷데이터센터(IDC)와 전력소비량, 운용비용 등을 고려했을 때 서버의 수를 늘리기보다는 서버의 성능을 높여주는 것이 더 유리합니다. 가상화를 원활하게 돌리려면 서버에 탑재되는 주메모리 용량을 크게 늘려줘야 합니다.

2 (28).png

PC의 경우는 조금 다른 이유로 무조건 주메모리 용량이 크다고 해서 좋은 것은 아닙니다. 오히려 별로 체감이 되지 않거나 이론적으로 성능이 떨어지는 경우도 있죠. 가령 4GB, 8GB보다는 12GB나 16GB가 더 성능이 좋아야 하지만 꼭 그렇다는 보장은 없습니다. 여기에는 CPU 속도, OS, 사용하는 소프트웨어 종류 등 다양한 요소가 영향을 끼치기 때문입니다. 성능을 좋게 만들려면 속도도 뒷받침되어야 합니다. 전력소비량도 마찬가지지요. 단순히 노트북뿐 아니라 서버에서도 매우 중요합니다. 단 0.1볼트(V)의 전압만 낮출 수 있어도 전체 서버와 1년 내내 운용되는 상황을 고려하면 상당한 에너지를 절약할 수 있습니다.

잠시 CPU 이야기로 돌아오겠습니다. 앞서 CPU 속도가 너무 빨라 버퍼를 둬야 한다고 설명했는데요. 상대적으로 D램 속도가 느리다는 의미이기도 합니다. 그래서 D램보다 빠른 S램을 캐시메모리로 활용하기로 했습니다. S램은 D램보다 훨씬 속도가 빠르지만 가격이 비싸 무작정 용량을 늘릴 수 없습니다. 처음에는 CPU 밖에 설치되어 있어서 동기화, 그러니까 CPU와 같은 클록으로 작동하지 못했지만 그래도 1/3이나 절반 정도의 속도로 움직여서 D램 사이에서 충분한 역할을 해줬습니다. 이후에는 CPU 내부에 함께 통합됐는데요. CPU의 내부 구조가 복잡해지고 코어 수가 늘어나면서 보통 레벨1(L1), 레벨2(L2), 레벨3(L3)까지 이용하게 됐습니다. 용량은 L3>L2>L1 순으로 작습니다.

CPU 속도를 뒷받침하라!

반도체 업계에서는 캐시메모리에 그치지 않고 D램 속도를 높일 수 있는 방법을 연구하기 시작합니다. 그래서 주목한 것이 버스(BUS)죠. 버스는 데이터가 오고 가는 통로를 말합니다. 단순하게 D램의 속도가 느리니 버스를 넓혀서 성능을 높여보자는 연구진들의 생각에서 출발했습니다. 단순하지만 이게 생각보다 쉬운 방법은 아닙니다. 가장 큰 문제는 ‘돈’이죠. 예컨대 ‘CPU↔메모리’ 버스를 16비트에서 32비트로 확장하면 확실히 성능은 좋아지지만 그만큼 인쇄회로기판(PCB)을 두껍게 설계해야 해서 가격이 비싸집니다. 그래서 그래픽카드에서 그래픽처리장치(GPU)와 그래픽메모리 사이의 버스가 높아질수록(64비트→128비트→256비트→512비트) 가격이 올라갑니다.

버스를 넓혀서 ‘채널’을 한 개(Single)가 아닌 두 개(Dual)로 만들고 인터페이스도 병렬(Parallel)이 아닌 직렬(Serial)을 사용해보는 등 다양한 시도를 거듭합니다. 과거에는 반도체 소자 하나하나의 성능이 부족했기 때문에 직렬보다는 병렬 인터페이스를 더 많이 썼습니다. 대표적인 병렬 인터페이스에는 흔히 프린터 포트라 부르던 Parallel Port, 그리고 오랫동안 하드디스크드라이브(HDD)에 쓰였던 IDE가 있습니다. 워크스테이션과 서버에서 쓰던 SCSI(small computer system interface)도 대표적인 병렬 인터페이스인데요. 이 병렬 인터페이스는 속도를 높일수록 케이블이 두꺼워져서 비용적으로 부담이 될 뿐 아니라 설치와 사용이 불편하다는 단점이 생겼습니다.

지금은 IDE와 SCSI가 시리얼ATA(SATA), SAS로 바뀐 상태입니다. 한편으로는 직렬·병렬 인터페이스가 한층 개선되면서 USB와 썬더볼트로 발전하게 됩니다. 솔리드스테이트드라이브(SSD)와 같은 낸드플래시는 Non-Volatile Memory Express(NVMe)가 등장하기도 합니다. NVMe나 eMMC(Embedded Multi Media Card), UFS(Universal Flash Storage)에 대해서는 기회가 닿으면 자세히 알아보겠습니다.

램버스D램의 탄생

버스와 인터페이스와 함께 D램 자체의 성능, 그러니까 CPU와 마찬가지로 클록을 높이는 노력도 함께 이어졌습니다. 그 즈음에 나온 D램이 ‘램버스D램(RDRAM)’이죠. 이 제품을 한 마디로 ‘고속으로 작동하는 직렬 D램’이라고 생각하면 됩니다. 경쟁했던 S(Synchronous)D램(SDRAM)이 16비트에 싱글 채널이었다면, 램버스D램은 32비트에 듀얼 채널로 작동했습니다. 여기에 쓰인 기술이 그 유명한 DDR(Double Data Rate)이고요. 반도체는 일정 주기(클록)로 작동하는 부품입니다. 헤르츠(Hz) 단위로 표기하는데요. 한 번의 클록으로 인해 발생한 사이클(주기)에서 두 번 데이터를 내보냅니다. 클록 한 번에 두 번(더블) 데이터를 내보낸다고 보면 되죠.

사본 -Untitled-1.png

▲ 서버용 메모리는 안정성을 높이고 D램에서 발생하는 열을 식히기 위해 방열판을 장착하는 경우가 있다.

이렇게 빠른 속도가 필요했던 이유는 인텔이 내놓은 펜티엄4의 철학을 맞추기 위해서였습니다. 내부 파이프라인을 깊게 설계해 클록을 크게 높였던 펜티엄4를 램버스D램과 결합해 PC 성능을 높이려고 한 것이죠. 결과적으로는 실패했지만 램버스D램의 개념은 결국 DDR SD램으로 이어졌으니 메모리반도체 업계 입장에서는 나쁠 것이 없었습니다. 흥미롭게도 빠르게 작동하는 램버스D램에는 기본적으로 방열판이 달려서 판매됐습니다. 그만큼 열이 많이 났다는 이야기입니다. 요즘 판매되는 일부 서버용과 오버클록킹을 위한 마니아용 D램에도 방열판이 달리는 경우가 많으니 선구자적인 역할을 톡톡히 한 셈이네요.

여러 가지 무기를 달고 CPU의 속도를 맞추기 위해 노력했던 D램은 또 하나의 변화를 겪습니다. 바로 메모리 컨트롤러의 통합입니다. 버퍼로 쓰인 S램이 CPU 외부에 있다가 내부로 통합됐다는 이야기를 했습니다. 같은 경우입니다. 직전까지 FSB(Front Side Bus)를 활용한 일종의 3요소(CPU↔메모리 컨트롤러↔D램) 개념에서 메모리 컨트롤러를 CPU에 넣어 성능 향상을 꾀한 것입니다. 이로써 D램에게는 또 하나의 숙제가 주어졌습니다. 결국 용량은 용량대로 구현하면서 성능을 높이는 본질적인 부분을 어떻게 해결하느냐가 관건이 된 것이죠.

열 줄이기 또한 성능 향상을 위한 D램의 숙제 중 하나입니다. 여름철 PC나 스마트폰 열을 줄이기 위해서는 D램의 열을 빠르게 식혀줘야 합니다. 물리적으로는 램버스D램이나 일부 고가 제품처럼 방열판을 달아주는 것이 좋지만 이것이 능사는 아닙니다. 스마트폰은 그럴 수 없으니까요. 오히려 애플리케이션프로세서(AP) 바로 위에 패키징 온 패키징(PoP) 형태로 얹어져 있어서, AP가 내는 열을 고스란히 받아내야 합니다. 손쉬운 방법은 메모리 정리 기능을 작동시키는 것입니다. 그리고 불필요한 애플리케이션과 소프트웨어를 삭제하고 주기적인 업데이트로 기기를 관리하면 발생하는 열을 한결 낮출 수 있습니다.

D램의 미래, 적층에서 시작해 뉴로모픽칩으로

4 (24).png

▲차세대 D램은 결국 적층을 통해 하나의 칩으로 구현될 가능성이 높다.

앞으로 D램의 미래는 어떻게 될까요? 다양한 뉴메모리 후보가 있지만 D램만큼 성능과 검증이 이뤄진 제품은 아직 없습니다. 홍성주 SK하이닉스 미래기술연구소장(부사장)의 설명에서 팁을 얻을 수 있습니다. 그는 “연관 공정 사이의 매칭이 중요하고 빅데이터를 활용해서 수율에 미치는 특이한 패턴의 발견과 피드백을 받아야 한다”며 “더 엄밀한 과학적 접근을 통해 연구개발(R&D)이 이뤄져야 한다”고 강조한 바 있습니다. 가장 유력한 방법은 ‘적층’입니다. 이미 HBM(High Bandwidth Memory)과 같은 제품이 등장했죠.

이후에는 CPU 내부로 통합된 S램이나 메모리 컨트롤러, 혹은 GPU처럼 D램도 궁극적으로는 시스템온칩(SoC)화가 되리라 예상됩니다. 실제로 유럽 최대 반도체 기술 연구소(IMEC)는 CPU, 메모리, 컨트롤러, 각종 입출력(I/O)가 하나의 칩에 적층될 것으로 보고 있습니다. 각 칩을 아파트처럼 쌓아 올려 여러 개의 코어를 하나로 통합하고 메모리는 위쪽에, I/O를 아래쪽에 배치해 3D로 적층하는 것이 가능하다는 이야기입니다.

5 (22).png

▲SK하이닉스가 뉴로모픽칩과 같은 신기술 개발에 매진하는 이유는 결국 모든 반도체가 하나로 통합되리라 보기 때문이다.

SK하이닉스가 뇌를 모사한 ‘뉴로모픽칩’ 연구에 들어간 이유도 여기에 있습니다. 미국 스탠포드대학교와 강유전체 물질을 활용한 ‘인공신경망 반도체 소자 공동 연구개발’을 진행하고 있죠. 뉴로모픽칩은 인공신경망 반도체 소자를 기반으로 사람 뇌의 사고과정을 모방한 반도체인데요. 최근 빅데이터 시대에 방대한 양의 데이터 중에는 사람과는 달리 기계가 쉽게 인식하기 어려운 비정형적인 문자·이미지·음성·영상 등이 혼재해 있습니다. 뉴로모픽칩은 이러한 비정형적인 데이터를 처리하는 데 효율적인 것으로 알려져 있습니다.

흔히 과거를 돌아보며 미래를 내다봐야 한다는 말을 합니다. D램의 미래는 결국 적층이 될 겁니다. 그러나 그 모습은 지금의 적층과는 많이 다를 것으로 예상됩니다. 그때의 SK하이닉스는 단순히 메모리 반도체를 주력하는 기업이 아니라 SoC까지 아우르는 역량을 갖추게 될 가능성이 큽니다. 그러려면 D램을 넘어서서 뉴메모리까지 멈추지 않는 열정으로 R&D가 이뤄져야 합니다. SK하이닉스가 그 중심에 있기를 바랍니다.

※ 본 칼럼은 반도체/ICT에 관한 인사이트를 제공하는 외부 전문가 칼럼으로, SK하이닉스의 공식 입장과는 다를 수 있습니다.

]]>
/memory-column/feed/ 0