SOCAMM – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Wed, 16 Jul 2025 14:01:23 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png SOCAMM – SK hynix Newsroom 32 32 [세미의 시대 1편] 당신의 질문 하나가 데이터센터를 더 뜨겁게 만든다면? /the-semiconductor-era-ep1/ Thu, 17 Jul 2025 00:00:21 +0000 /?p=50954

0과 1로 움직이는 디지털 세상 속에서 ‘반도체가 이끄는 산업의 현재와 미래’를 조망하는 다큐멘터리 시리즈, [세미의 시대; 세상을 설계하는 작은 조각]을 새롭게 선보입니다.
SK하이닉스 뉴스룸이 깊이 있게 준비한 이번 시리즈에서는 산업별 최신 이슈를 심층적으로 분석하고, 전문가와 함께 해법 및 발전 방향을 모색합니다. 이 과정에서 작지만 혁신적인 반도체 기술이 어떤 돌파구를 제시하는지도 살펴봅니다. 1편에서는 AI 데이터센터가 불러온 기후위기의 실태를 짚어보고, 그 해결책으로 주목받는 반도체 기술을 조명합니다.

“챗GPT(ChatGPT)에 ‘고맙다’는 말을 자제해 주세요.”
– 샘 올트먼(Samuel H. Altman) 오픈AI 최고경영자

모든 것을 알고 있고 무엇이든 답하는 생성형 AI이지만, 유독 ‘인사’만은 자제 해달라고 당부한다. 우리가 AI에게 건네는 짧은 인사 한마디가 전력 소비를 증가시키고 지구를 더 뜨겁게 만들어 기후위기를 앞당기고 있기 때문이다. AI를 쓰면 쓸수록 지구가 뜨거워진다는 역설적인 현실 속에서 뉴스룸은 AI가 환경에 미치는 영향을 구조적으로 살펴보고 해결책을 모색해 봤다.

급증하는 데이터센터 전력 소비… 원인은 ‘AI 서버’

지난 2023년 챗GPT의 등장과 함께 생성형 AI가 확산되면서 일상과 산업 전반은 큰 변화를 맞았다. 가장 큰 영향을 받은 분야는 ‘데이터센터(Data Center)’였다. AI 서비스가 급증하면서 AI 연산량도 기하급수적으로 늘었는데, 이로 인해 전력 소비와 탄소 배출도 급격히 증가했다.

국제에너지기구(IEA) 보고서(Energy and AI, 2025)에 따르면, 2024년 전 세계 데이터센터 전력 소비량은 약 415TWh(테라와트시)에 달할 것으로 추정된다. 이는 주행거리 약 500km의 전기차 55억 대를 충전할 수 있는 막대한 양이다. 더 심각한 문제는 이 수치가 앞으로 더욱 증가한다는 사실이다. IEA는 2030년 데이터센터 전력 소비량이 약 945TWh를 기록할 것으로 전망했다.

▲ 이병훈 교수(포스텍 반도체공학과)가 AI 서버의 전력 소비량에 관해 설명하고 있다.

원인은 AI 연산을 담당하는 가속 서버(Accelerated Server), 즉 AI 서버에 있다. 이 서버의 GPU는 CPU 기반의 일반 서버보다 월등히 많은 전력을 소비한다. 이병훈 교수(포스텍 반도체공학과)는 “AI 서버는 일반 서버보다 약 7~8배 많은 전력을 사용하며, 특히 CPU 중심의 AI 연산 과정에서 막대한 전력이 소모된다”고 설명했다.

데이터센터 전력 소비의 상당 부분을 AI 서버가 차지한다는 사실은 IEA 보고서에서도 엿볼 수 있다. IEA에 따르면 2030년 AI 서버의 전력 소비량은 약 300TWh에 이를 전망이다. 이는 전체 소비량의 약 1/3에 해당한다. 정리하자면 AI 활용이 늘수록 AI 서버의 전력 소비량과 탄소 배출도 급격히 증가할 수밖에 없는 것이다.

탄소 배출과 기후변화 우려… 다각적 해결책 필요

정수종 교수(서울대학교 기후테크센터 센터장)는 “2030년 데이터센터 전력 소비량인 945TWh는 일본 전체 전력 소비량과 비슷한 수준”이라며 “이러한 데이터센터 전력 소비로 인해 약 25억 톤의 탄소가 배출될 가능성이 있다”고 경고했다.

▲ 정수종 교수(서울대 기후테크센터 센터장)가 AI 데이터센터의 탄소 배출 문제를 지적하고 있다.

데이터센터에서 촉발된 기후변화 원인 물질이 지구온난화를 가속화해 다양한 부작용을 초래할 수 있다는 게 그의 설명이다.

하지만 AI 발전을 멈출 수 없기에 전문가들은 탄소 배출 최소화를 위한 다각적 해결책을 모색해야 한다고 입을 모은다. IEA에 따르면 AI 기반 에너지 관리와 워크로드 스케줄링 등 소프트웨어 최적화만으로도 최대 15%의 에너지를 절약할 수 있다. 또 데이터센터 효율 개선, 친환경 재생에너지 활용, 소형모듈원자로* 및 탄소포집* 등 새로운 대체 에너지 개발도 검토되고 있다.

* 소형모듈원자로(Small Modular Reactor, SMR): 기존 원전보다 작고 모듈 형태로 제작해 현장에 설치할 수 있으며, 이산화탄소 직접 배출이 없는 친환경 에너지원
탄소포집(Carbon Capture Utilization and Storage, CCUS): 발전소나 산업시설에서 나오는 이산화탄소를 포집해 지하 저장하거나 재활용하는 기술

근본적인 해결책은 반도체 기술 혁신이다. 데이터센터 주요 전력 소모원이 AI 서버인 만큼, 이 서버의 핵심 부품인 반도체의 성능과 효율을 높이는 것은 가장 효과적인 해결책일 수밖에 없다. 관련해 이병훈 교수는 “새로운 반도체 기술로 전력 소모를 기존 대비 1/100 수준까지 줄이는 연구가 진행 중”이라며 “데이터 이동량 감소를 위한 새로운 아키텍처도 고려되고 있다”고 밝혔다.

SK하이닉스, AI 메모리 기술로 데이터센터 전력 문제 해결

SK하이닉스 역시 데이터센터의 전력 효율을 높이기 위해 다양한 AI 메모리를 개발하고 있다.

고대역폭 메모리 HBM(High Bandwidth Memory)에는 어드밴스드 MR-MUF* 기술을 적용해 방열성과 안정성을 높였다. 최근에는 베이스다이(Base Die) 성능과 전력 효율을 개선한 HBM4 샘플도 선보였다.

전력 소모를 줄여주는 AI 데이터센터용 고용량 eSSD(기업용 SSD) 개발도 지속적으로 이뤄지고 있다. QLC* 기반 PS1012는 제한된 공간에 더 많은 데이터를 담고, 빠른 전송 속도로 AI 학습 시간을 줄여 전력 소비를 낮추는 데 기여할 수 있다.

저전력 D램 기반의 AI 서버 특화 메모리 모듈 SOCAMM*도 개발 중이다. 기존 서버용 메모리 대비 작은 폼팩터를 갖춘 이 제품은 AI 데이터센터의 에너지 효율을 높이는 데 기여할 것으로 기대된다.

이와 같이 SK하이닉스는 다양한 고효율 메모리 기술을 개발하며, 데이터센터 문제에 직접적인 해법을 제시하는 중이다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* SOCAMM(Small Outline Compression Attached Memory Module): 기존의 서버용 메모리 모듈보다 더 작은 폼팩터를 가지면서 전력 효율이 높은 저전력 D램 기반의 AI 서버 특화 메모리 모듈

AI 메모리 기술과 함께 AI의 발전은 앞으로도 계속될 전망이다. 투자 또한 계속된다. 스타게이트 사(社)는 2029년까지 수 GW(기가와트)급 데이터센터를 건설할 계획이며, 대만도 엔비디아와 협력해 AI 데이터센터를 건립한다고 밝혔다. 한국의 경우 SK가 AWS와 협력해 울산에 100MW(메가와트)급 친환경 AI 데이터센터를 건설하며, 장기적으로 1GW 규모로 확대한다는 계획이다.

이처럼 세계 곳곳에서 데이터센터의 수가 빠르게 증가하는 가운데, AI의 발전 속도는 결국 얼마나 효율적으로 에너지를 관리하느냐에 달려 있다고 해도 과언이 아니다. 어쩌면 그 시작은 작은 반도체 칩 하나에 달려 있을지도 모른다.

]]>
SK하이닉스, ‘Intel AI Summit Seoul 2025’ 참가… AI 시대 메모리 반도체 중요성 강조하며 글로벌 테크 리더십 선보여 /intel-ai-summit-seoul-2025/ Wed, 02 Jul 2025 06:30:55 +0000 /?p=50450

SK하이닉스가 지난 1일 개최된 Intel AI Summit Seoul 2025에 참가해 고성능 AI 서버와 스토리지 분야에서 차별된 메모리 설루션을 선보이며 메모리 반도체 분야의 글로벌 경쟁력을 다시 한번 입증했다. Intel AI Summit은 인텔(Intel)이 전 세계 24개 주요 도시에서 매년 정기적으로 개최하는 행사로 AI 산업의 잠재력과 미래 전략을 논의하는 자리이다. 올해는 ‘AX: Designing the Future with AI Innovation(AI개발의 혁신, 미래를 디자인하다)’라는 주제로 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고, 산업 전반에 걸친 AI의 발전 방향을 함께 모색했다.

SK하이닉스는 지난해 세션 발표에 참가한 데 이어, 올해 Platinum Sponsor로 참가해 ‘풀스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’를 주제로 전시 부스를 운영하며 AI 혁신을 선도해 나갈 메모리 제품과 기술을 소개했다. 특히, SK하이닉스의 캐릭터를 활용한 디자인으로 독보적인 경쟁력을 갖춘 다양한 제품과 기술력을 관람객들에게 보다 친근하게 전달했다.

혁신적인 AI 메모리 제품, 전문가들의 설명과 함께 선보여

이번 행사에서 SK하이닉스는 현존하는 HBM 제품 가운데 최대 용량인 36GB를 구현한 ‘HBM3E 12단’과 초당 2TB 이상의 데이터 처리 속도를 자랑하는 ‘HBM4 12단’을 선보였다. HBM4 12단은 AI 메모리가 갖춰야 할 세계 최고 수준의 속도를 구현한 제품으로 회사는 최근 업계 최초로 주요 고객사에 해당 제품 샘플을 공급했다[관련기사]. 무엇보다 TSV*, 어드밴스드 MR-MUF* 등 HBM에 적용된 기술을 알기 쉽게 표현한 3D 구조물을 전시해 많은 관람객의 이목을 집중시키며 AI 메모리 기술 리더십을 다시 한번 증명했다.

HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E)-6세대(HBM4) 순으로 개발됨
* TSV(Through-Silicon Via): D램 칩에 수천 개의 미세 구멍을 뚫어 상하층 칩의 구멍을 수직 관통하는 전극으로 연결하는 기술
어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

SK하이닉스는 ▲RDIMM* ▲3DS* RDIMM ▲Tall MRDIMM* ▲SOCAMM ▲LPCAMM2 ▲CMM(CXL* Memory Module)-DDR5 등 글로벌 AI 메모리 시장을 선도할 차세대 제품을 대거 선보였다. 이 가운데 CMM-DDR5는 DDR5 D램에 CXL 메모리 컨트롤러를 더한 제품으로, 서버 시스템에 이 제품을 적용할 경우 기존 DDR5 모듈 대비 용량이 50% 늘어나고 제품 자체의 대역폭도 30% 확장돼 초당 36GB의 데이터를 처리할 수 있다.

* RDIMM(Registered Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품
* 3DS(3D Stacked Memory): 2개 이상의 D램칩을 TSV(수직관통전극)로 연결해 패키징을 완료한 고대역폭 메모리 제품
MRDIMM(Multiplexed Rank Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 서버용 모듈 제품으로, 모듈의 기본 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음

뿐만 아니라, 176단 4D 낸드 기반의 데이터센터 eSSD*인 ▲PS1010 E3.S를 비롯해 238단 4D 낸드 기반의 ▲PEB110 E1.S, QLC* 기반 61TB(테라바이트) 제품인 ▲PS1012 U.2* 등 압도적인 성능의 eSSD 제품을 선보였다.

* eSSD(Enterprise Solid State Drive): 서버나 데이터센터에 탑재되는 기업용 SSD
* QLC: 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* U.2: SSD 형태를 칭하는 폼팩터(FormFactor)의 일종으로 주로 서버나 고성능 워크스테이션(Workstation)에 사용되며 대용량 저장과 높은 내구성을 가짐. 특히 U.2는 2.5인치 폼팩터로 기존의 서버 및 스토리지 시스템과의 호환성이 뛰어나, 별도의 인프라 변경 없이도 고성능 SSD로 전환 할 수 있음

SK하이닉스는 이번 전시에서 관람객과의 소통을 강화하기 위해 전문가와의 대화 시간을 마련했다. RDIMM, CXL Memory, eSSD 등 총 3개 제품의 담당자들이 직접 참여해 각 제품에 대한 깊이 있는 설명과 질의응답을 통해 SK하이닉스의 기술 중심 기업 이미지를 한층 더 공고히 했다.

당일 행사에서는 인텔(The Open Path to Enterprise AI, 엔터프라이즈 AI로 가는 길)과 네이버클라우드(네이버클라우드가 만들어가는 AI 생태계), 레노버(Smarter AI for All, 모두를 위한 더 스마트한 AI), SK하이닉스의 기조연설을 포함하여 테크 기업 리더, AI 개발자, 스타트업, 정부 관계자 등 각 분야의 전문가들이 한자리에 모여 AI 기술 동향과 산업 간 협력 방안에 대해 깊이 있게 논의는 자리도 마련됐다.

SK하이닉스는 기조연설을 통해 AI 시대 메모리 반도체의 중요성을 강조하고 그에 따른 미래 비전을 공유했다. 정우석 부사장(Software Solution 담당)은 ‘New Opportunities in the Memory-Centric AI Computing Ear(메모리센트릭 AI 컴퓨팅 시대의 새로운 기회)‘ 주제로 발표를 진행하며, AI시대 폭발적으로 증가하는 데이터를 효과적으로 처리하기 위한 메모리 중심의 AI 컴퓨팅의 중요성과 이를 위한 SK하이닉스의 다양한 차세대 AI 메모리 기술들을 소개했다.

SK하이닉스는 “이번 Intel AI Summit Seoul은 AI 시대를 이끌어갈 회사의 AI 메모리 기술의 현재와 미래를 공유할 수 있는 뜻깊은 자리였다”며, “앞으로도 인텔과의 원팀 파트너십을 바탕으로 AI 생태계의 진화를 앞당기는 데 앞장서겠다”고 밝혔다.

]]>