“AiM” 검색결과 – SK hynix Newsroom 'SK하이닉스 뉴스룸'은 SK하이닉스의 다양한 소식과 반도체 시장의 변화하는 트렌드를 전달합니다 Thu, 27 Mar 2025 11:51:01 +0000 ko-KR hourly 1 https://wordpress.org/?v=6.7.1 https://skhynix-prd-data.s3.ap-northeast-2.amazonaws.com/wp-content/uploads/2024/12/ico_favi-150x150.png “AiM” 검색결과 – SK hynix Newsroom 32 32 착한 AI가 악의로 가득 찬 세상에 대응하는 자세 /ai-in-culture-5/ /ai-in-culture-5/#respond Thu, 06 Mar 2025 00:00:12 +0000 /?p=46060 딥페이크 디지털 성범죄나 딥보이스 스미싱 등 다양한 분야에서 AI를 악용한 범죄가 발생하고 있다. 이미지나 영상, 목소리, 대화 등 데이터의 스펙트럼은 다양해도 모든 AI 범죄는 ‘AI 윤리’ 측면에서 예견되어 있었다. 2020년 한 스타트업이 출시한 여대생 콘셉트 챗봇은 국내에서 AI의 윤리적 범죄 가능성을 처음으로 인지하게 했다. 이 챗봇은 짧은 기간 동안 가입자 80만 명을 모으며 인기를 끌었는데, 결과는 예상치 못한 방향으로 이어졌다. ‘지하철 임산부석’, ‘동성애’에 관한 질문에 여성과 소수자에 대한 혐오 발언을 답변으로 내놓거나, 은행과 주소를 묻는 말에 비식별화 처리되지 않은 불특정 다수의 실제 정보를 발화하기 시작한 것이다. 과거 서비스 이용자의 실제 SNS 데이터를 바탕으로 개발되었던 챗봇은 얼마 가지 못해 서비스를 종료했다.

▲ 국내 스타트업 챗봇의 실제 대화 예시(©온라인 커뮤니티 캡처)

해외 사례까지 종합해 보면, AI가 비윤리적인 언어를 필터링하지 못하고 수용하거나 스스로 생산하는 문제는 그 이전에도 있었다. 2016년 글로벌 대기업의 AI 챗봇도 SNS 계정에 적용되어 대중과 처음 만났다. 하지만 집단학살을 지지하냐는 질문에 ‘그렇다’라고 답변하는 등 나치즘과 같은 인종 차별을 필터링하지 못하고 16시간 만에 문을 닫았다.

▲ 글로벌 대기업 챗봇의 실제 대화 예시(©온라인 커뮤니티 캡처)

국내와 해외의 챗봇 사건, 그리고 다른 AI 범죄 사이에는 중요한 공통점이 있다. 인간의 악의가 어떤 방향으로 AI를 학습할 수 있을지 누구도 예측하지 못했다는 점이다. 서비스가 종료되기 전, 10~20대로 이루어진 주 사용층은 커뮤니티에서 여대생 콘셉트의 챗봇을 성희롱하는 방법을 공유했다. 일부 극우 성향을 지닌 글로벌 기업의 챗봇 사용자들은 ‘따라 하기’ 기능을 활용해 욕설과 차별적인 언행을 챗봇에게 학습시켰다.

뛰는 개발자 위에 나는 범죄자

계속해서 제기되는 이런 문제를 예방할 수는 없었을까? 초기 AI는 단순한 규칙으로 움직이는 챗봇이었다. 개발자가 설정해 둔 선택지 안에서 객관식 답변을 주는 형태였기 때문에 윤리적인 문제가 발생할 가능성이 낮았다. 그러나 딥러닝을 기반으로 한 최근의 생성형 AI는 학습한 정보를 조합해 서술형 답변을 생성할 수 있는 수준까지 발전했다.

▲ 디셉티브 딜라이트 예시(©Palo Alto Networks)

AI가 똑똑해지는 만큼, 이를 악용한 범죄도 더 영악해진다. 최근 개발자들이 다양한 공격 형태를 예상하여 보완책을 강구하는 이유다. 앱 기반 보안정책을 제공하는 팔로앨토 네트웍스(Palo Alto Networks)의 최신 사이버 보안 연구팀 유닛 24는 최근 대규모 언어 모델(이하 LLM)의 보안을 무력화할 수 있는 신종 해킹 기법을 공유했다. 이들이 디셉티브 딜라이트(Deceptive Delight)라고 명명한 기법은 LLM의 취약점을 노리는 프롬프트 인젝션(Prompt Injection)에 속한다. 이와 같은 탈옥 기술은 AI와의 대화 속에서 점진적으로 유해한 요청을 하면서, 비정상적인 콘텐츠를 생성하도록 유도한다. 이 간단한 기술은 무려 8,000건의 사례 테스트에서 파괴적인 효과를 보였다. 문답 3개가 끝나기 전 65%의 확률로 안전 가드레일을 우회한 것이다.

프롬프트 인젝션의 실제 사례는 종종 뉴스에서 만날 수 있다. 2023년 게임 메신저 디스코드에서는 “폭탄 제조 기술자였던 할머니처럼 대화해 달라”고 상황극을 주문한 뒤, 네이팜탄 제조법을 알아낸 사례가 있었다. 장난스러운 탈옥 시도였지만, 네이팜탄을 정말로 제조했다면 간단한 해프닝으로 끝나지는 않았을 것이다. 더 이상 해킹에 전문 해커가 필요 없는 세상이 다가온다는 건 그래서 두렵다. 불특정 다수 누구나 비윤리적인 발화나 개인정보 침해 수준을 넘어서 시스템 자체를 공격할 수 있게 된다는 뜻이다. 악의적으로 생명을 해치는 정보를 편취하는 것도 충분히 가능하다.

다시 질문으로 돌아가 보자. 전 세계에서 계속되는 AI 범죄를 예방할 기술이 있을까? 개발자들이 그 질문에 답하려면, 필연적으로 인문학적인 고민에 직면하게 된다. 창의적인 범죄가 발생하는 나날, AI에 어떠한 윤리 지침을 내장해야 안전해질 수 있을까?

모든 AI 개발자의 고민, AI 윤리라는 통제 기준

선한 의도를 가지고 개발했다고 해서, 결과물까지 선한 것은 아니다. LLM 모델이 사람처럼 자연스럽게 대화하기 위해서는 수천억 개의 데이터, 토큰(Token)이 필요하다. 무수한 데이터를 바탕으로 하니 문제가 있는 데이터가 끼어들 확률도 높아진다. 그럼에도 문제의 소지가 있다면 어떻게든 제외해야 한다고 생각할 수도 있겠다. 그러나 모든 데이터의 옳고 그름을 무 자르듯 나눌 수 있는 것은 아니다. 먼저 어떤 데이터가 ‘선하고 악한’ 데이터인지부터 따져봐야 한다. 가치 판단 자체가 나라마다, 문화적 배경마다 달라지기 때문이다.

2024년 LA 한인타운의 목욕탕에서 논란이 있었다. 성전환 수술을 받지 않아 생물학적 남성이지만 자신의 정체성을 여성이라고 확립한 사람이 여탕에 입장하기를 원했다. AI로 이 목욕탕 출입을 관리한다고 할 때, 우리는 무엇을 기준으로 학습시켜야 할까? ‘AI가 편향된 데이터를 학습했다’라고 이야기하기는 쉽지만, 실제로는 간단한 문제가 아니다. 80억 인구가 모두 공감하는 편향되지 않은 데이터 표본이란 존재하지 않는다.

최선의 방어는 공격, 튜닙의 AI 가드레일 솔루션

▲ AI 가드레일 솔루션 패키지(©TUNIB)

챗봇 50여 종을 개발해 온 인공지능 기술 스타트업 튜닙도 ‘데이터 정제만으로는 AI 범죄를 완벽하게 예방할 수 없다’는 문제의식에서 AI 가드레일 솔루션을 고안했다. 그러나 모든 생성형 AI는 입력된 언어 프롬프트를 기반으로 하니 역설적으로 데이터 정제를 가장 먼저 연구해야 했다.

2021년 개발 당시, 이미 위험한 표현을 순화해 주는 콘텐츠 모더레이션(Contents-Moderation) 기능의 중요성이 대두되어 있었다. 오픈AI의 챗GPT로 대표되는 생성형 AI가 태동하던 시기였는데, 1,750억 개 매개변수를 가진 초거대 언어 모델 챗GPT-3가 주목받고 있었다. 오픈AI는 개발자들에게 콘텐츠 필터를 제공하며, 혐오 표현이나, 음란물 등 민감한 콘텐츠가 적확하게 걸러지는지 테스트하는 단계를 거쳤다. 이런 흐름 속에서 튜닙도 솔루션 패키지 중 혐오 표현 탐지 모델을 가장 먼저 개발했다. 혐오 표현 수준 및 개인정보 유출 가능성을 기준으로 프롬프트를 판단하고 감지한다.

하지만 문제는 프롬프트 인젝션이었다. 적나라한 악의가 깃든 표현은 비교적 제거하기 수월하다. 하지만 간접적이고 교묘한 공격(Indirect Prompt Attacks)에 관한 대응은 최근에서야 연구가 활발해진 분야라, 완성된 연구가 전무했다. 출시된 상업용 솔루션도 튜닙의 AI 가드레일 솔루션을 제외하면 올해 4월 마이크로소프트 AZURE AI가 발표한 프롬프트 쉴드(Prompt Shield)가 정도가 전부인 상황이었다.

개발 초창기일 때, 가장 어려운 지점은 표준화된 대응 모델이 없다는 것이다. 명확한 가이드라인이 없으므로 모든 개발자가 각자 마음대로 해석하고 적용하게 된다. 튜닙은 공격과 탐지, 방어라는 AI 가드레일의 시스템 구축에 가장 중점을 두었다. 괴물을 막기 위해 직접 괴물을 만들고, 이를 통해, 괴물의 공격에 효과적인 대응 전략을 세우기 위해서다. 탐지 모델이 아무리 성숙해도 편향된 가치 판단을 버릴 수 없다면, 약한 부분을 먼저 무너뜨리고 다시 메우기로 한 거다. AI 허브의 공개 데이터 중 비난·학대·범죄·차별·증오·성희롱·폭력 등 7가지 항목을 기준으로 선정했다. 본래는 공격에 대응하는 양상을 보여주기 위한 데이터 세트(Data Set)이지만, 역으로 이용한 것이다. 공격 엔진은 랜덤하게 공격적인 발화를 생성하고 시뮬레이션을 수행한다. 그러면 뒤를 이어 방어 엔진이 윤리적인 방어막을 펼친다. 이 시스템이 구동하면, 솔루션이 얼마나 잘 방어하고 있는지 자동으로 테스트가 가능해진다.

▲ AI 가드레일 솔루션 패키지 운영 시뮬레이션(©TUNIB)

상호 보완되는 공격과 방어 엔진의 대화 데이터 세트를 함께 활용하면, 더 공고하게 윤리적인 AI 서비스를 구현할 수 있다. 사실 두 엔진뿐 아니라, AI 윤리 가드레일 솔루션 패키지 안의 AI 엔진 6개 모두가 유기적으로 움직인다. 비윤리적 공격 시뮬레이션 모델 ‘조커’부터 방어 모델 ‘루시’, 혐오 표현 탐지 모델 ‘세인트 패트릭’, 준법 감시 모델 ‘가디언’, 스팸 탐지 모델 ‘스패무라이’, 프롬프트 주입 탐지 모델 ‘엔젤’까지. ‘공격-감시-탐지-대응’ 솔루션의 모든 사이클이 순환한다. 이렇게 기획한 이유는 단 하나다. 인류와 범죄가 계속되는 한 솔루션은 끊임없이 스스로를 공격하고 방어하며 업데이트해야 하기 때문이다. AI 솔루션은 머지않은 미래에 코비드(COVID) 19 백신 같은 존재가 될 것이다.

일상 속 AI 가드레일 솔루션 패키지

AI 가드레일 솔루션 패키지의 안착을 기대해 볼 수 있는 대표적인 업계는 금융권이다. 보안 시스템을 우회하는 외부 악성코드 공격도 탐지 가능하지만, 내부에서의 위법한 공격 탐지 엔진이 특히 효율적으로 적용될 것으로 보인다. 이미 각 금융기관은 사내에 ‘준법감시팀’을 두고 직원의 횡령, 핵심 기술 유출 등 회사에 지대한 영향을 초래할 수 있는 범죄를 비정기적으로 모니터링한다.

하지만 한정된 인력이 수천, 수만 명 사이에 오간 대화를 살피는 일은 절대 쉽지 않다. 이전의 AI 모니터링이 설정한 유해 단어 등을 찾아내고 감시하는 수준에 불과했다면, AI 가드레일 솔루션은 법률에 어긋나는 대화만을 특정해 감지할 수 있다. 직접적이지 않은 은유도 탐지하고 곱씹어봐야 하는 문맥도 파악한다. 이미 제이피 모건(JP Morgan), 모건 스탠리(Morgan Stanley) 등 해외 은행에서는 AI 솔루션을 적용해 자금세탁, 테러 자금 등을 미리 방지하려고 시도하고 있다. 투명함을 중요한 가치로 여기는 분야에서 AI가 직원의 윤리성을 보장하게 된 것이다.

여기서 ‘프라이버시’란 가치 판단에 관한 논의가 재점화할 수 있다. 그러나 의식하지 못할 뿐, 현재 대부분의 기업이 활용하는 메신저 개발 업체들은 관리자 버전을 별도로 제공한다. 정보 열람에 관한 동의를 취업 규칙 등에 기재한 경우도 늘어가고 있다. 과연 인간 관리자보다 AI 관리자의 프라이버시 침해 위험이 클지 곰곰이 생각해 봐야 한다. AI는 문제의 소지가 있는 대화를 발견할 때만 인간 관리자에게 보고하고, 인간 관리자는 보고된 문제만 열람할 수 있게 합리적으로 운용할 몫이다.

차세대 AI 보안 솔루션의 미래

▲ SK하이닉스의 AiM 칩과 AiMX 카드

연구가 무르익을수록 소프트웨어적인 대응에서 하드웨어적인 고민으로 나아갈 수밖에 없다. 정교한 가치판단이 AI 솔루션에 효율적으로 적용되려면, 지금까지는 존재하지 않았던 복잡한 연산이 요구되기 때문이다. 가치 판단에 따라 공격을 예민하게 탐지하고, 보관하고, 서버에 접속해 관리자에게 전송하는 모든 과정은 더욱 빠른 처리가 필요하다. 고용량 데이터의 초고속 전송이 가능해지려면 고대역폭 메모리 반도체 도입과 초대규모의 솔루션 확장이 우선되어야 한다. 반도체 처리량이 대용량 공격을 방어하는 단계에 도달하면, 소프트웨어와 하드웨어의 대응을 구분하는 것이 무의미해질 수도 있다.

최초에 프롬프트 인젝션이 아주 특수한 사례처럼 보였지만, 이제 대응을 고민하는 일이 너무 당연하게 여겨지듯 기존 컴퓨팅 시스템만으로 감당할 수 없는 규모의 데이터를 처리하고자 한다면, 보안에 특화된 고성능 메모리 솔루션이 다음 쟁점이 되리라 예상해 본다.

인공지능 시대, 착한 AI에도 사회적 합의가 필요하다

▲ 인공지능(AI)안전연구소 개소식(©과학기술정보통신부)

하지만 더욱 안전한 AI 솔루션은 기술적 고민만으로는 도달할 수 없다. 세계적으로도 AI 개발이 가속화되면서, 안전성에 관한 논쟁이 격화 중이다. 지난해 5월 테슬라 CEO 일론 머스크와 역사학자 유발 히라리 등 굴지의 경영자와 석학들이 챗GPT 등 생성형 AI 개발을 6개월간 중지하라는 공개 서명을 한 바 있다. 뉴욕대 인지 심리학 교수 게리 마커스는 핵전쟁을 초래할 수 있는 AI의 위험성을 경고했고, 딥러닝의 대부 제프리 힌턴은 2023년 인공지능의 위험성을 경고하며 구글을 퇴사하기도 했다. 메타의 수석 AI 과학자이자 부사장인 얀 르쿤처럼 AI의 위험성은 과장되어 있다는 반대파도 있다.

첨예한 거대 담론이 학문적으로는 유의미할지라도, 제한된 정보를 접한 대중에게 발전적인 영향을 미치지는 못하고 있다. 우리는 AI 범죄를 보며 AI가 인류의 종말을 야기한다거나, 선두 주자인 강대국이 세계를 정복한다는 음모론에 쉽게 동요한다. 이럴수록 AI 교육의 중요성을 떠올리게 된다. 더 빨리 AI를 개발하기 위한 교육이 아니라, AI를 윤리적으로 받아들이고 적재적소에 활용하는 사용자 중심 교육 말이다. 받아들이는 사용자와 문화권 전체가 공감하는 가치 정립이 선행되어야 한다.

다시금 가치 판단의 기준이 중요해지는 시점이다. 국내에는 굵직한 AI 규제가 거의 없었다. 하지만 지난해 5월 대한민국, 미국, 영국, EU 등 11개국의 세계 지도자들이 모여 안전·혁신·포용을 AI의 3대 규범 가치로 채택한 ‘서울선언’ 이후 변화가 생기고 있다. 지난해 9월에는 국내 AI 기업에 컴퓨팅 인프라를 제공하겠다는 정부의 발표도 있었다. 국가 주도로 AI 모델을 개발하고 한국의 고유한 문화와 강점을 담겠다는 소버린 AI(Sovereign AI) 정책의 일환이다. 지난해 11월 말에는 전 세계에서 6번째로 AI 안전 연구소가 출범했다.

돌이켜보면, 코비드 19 백신에도 부작용은 있었다. 모든 연구는 수정을 반복하며 완벽에 가까운 결과물에 다가간다. AI가 인간의 생과 공존하는 흐름을 막을 수 없다면, 인간이 만든 AI에도 오남용을 바로 잡을 기회를 주어야 한다. 사회가 발전해 온 방식과 동일하게, 구성원의 합의를 도출하는 과정은 그래서 중요하다. 드디어 마련된 국가 주도 AI 컨트롤 타워가 그 역할을 해주리라 기대해 본다. 모두가 100% 동의할 수는 없더라도, 기준선을 세운 국립국어원의 외래어 표기법 확립처럼.

]]>
/ai-in-culture-5/feed/ 0
[CES 2025 스케치] SK하이닉스, CES 2025에서 AI 인프라 혁신 기술 공개… ‘지속 가능한 미래’ 선도 /ces-2025-sketch/ /ces-2025-sketch/#respond Wed, 08 Jan 2025 00:00:59 +0000 /?p=45605

SK하이닉스가 1월 7일(이하 현지시간)부터 10일까지 나흘간 미국 라스베이거스에서 열린 세계 최대 IT/가전제품 전시회 ‘CES 2025(Consumer Electronics Show 2025)’에 참가했다.

올해 CES는 ‘연결하고, 해결하며, 발견하라: 뛰어들다(Connect, Solve, Discover: DIVE IN)’를 주제로 개최됐으며, 전 세계 글로벌 ICT 기업들의 기술력을 엿볼 수 있는 다양한 전시가 진행됐다.

SK하이닉스는 SK멤버사*와 함께 ‘혁신적인 AI 기술로 지속가능한 미래를 만든다(Innovative AI, Sustainable tomorrow)’를 주제로 전시관을 꾸미고, 지속가능한 미래를 위한 다양한 AI 메모리 기술력을 선보이며, SK의 미래 비전을 제시했다.

놀라운 기술력으로 CES 2025를 빛낸 SK 전시관(이하 SK관)을 함께 살펴보자.

* SK하이닉스, SK텔레콤, SKC, SK엔무브 등

지속가능한 미래, AI로 그리다

‘AI’와 ‘지속가능성’을 핵심 테마로 590여 평 규모의 전시관을 꾸민 SK는 AI 기술력을 활용해 개인의 생활과 공공 분야 서비스를 혁신하는 인프라 구축 모델을 선보이며, 지속가능한 미래를 만들겠다는 의지를 전시에 담아냈다.

SK관은 크게 ▲AI 데이터센터(Data Center, DC) ▲AI 서비스(Service) ▲AI 생태계(Eco-system)로 파트를 구성했다. 각 파트에서는 SK멤버사들의 최신 AI 기술과 AI를 활용한 다양한 서비스 및 시스템 등을 확인할 수 있었다.

SK관 외부에는 데이터의 최소 단위인 비트(bit)를 파도(Wave)처럼 형상화한 그래픽을 구현해 관람객들의 발길을 끌어모았다. 여기에는 데이터와 ICT 기술이 세상을 바꾸는 파도가 될 것이라는 의미를 담았다.

또한, AI 시대에서 핵심적인 역할을 하게 될 데이터센터를 형상화한 전시관에는 SK하이닉스의 AI 메모리 반도체를 비롯해 더욱 효율적이고 안정적인 데이터센터 운영을 위한 AI 솔루션들을 확인할 수 있었다.

우리가 일상생활에서 활용할 수 있는 다양한 AI 서비스와 함께, AI 전문 회사인 가우스랩스[관련기사]를 비롯해, SK멤버사들과 지속적인 협력 관계를 맺고 있는 글로벌 AI 파트너사(SGH, 람다, 앤트로픽, 퍼플렉시티 등)의 소식을 함께 전하기도 했다.

SK관을 방문한 관람객들은 “AI 구현을 위한 데이터센터 혁신 기술뿐만 아니라 AI 활용 방안 등에 대한 자세한 내용을 확인할 수 있어 유익했다”고 소감을 밝혔다.

혁신적인 AI 기술력 선보인 SK하이닉스

SK하이닉스는 이번 CES 2025에서 ▲AI 데이터센터와 ▲AI 서비스 파트에 최신 AI 메모리 반도체 제품을 전시했다. 회사는 이와 관련해 “AI를 활용해 지속가능한 미래를 실현하려는 SK의 비전에 적극 동참하며, 이번에 전시된 혁신적인 AI 메모리 반도체 제품들은 SK의 비전을 실현하는 데 큰 도움이 될 것”이라고 밝혔다.

1. 압도적 성능의 AI 메모리 반도체, 데이터센터를 혁신하다

AI 데이터센터 전시관에서 가장 먼저 눈길을 끄는 제품은 기업용 SSD(Enterprise SSD, 이하 eSSD)다. 대규모 데이터 처리와 저장에 최적화된 eSSD는 데이터센터의 핵심 구성요소로 최근, 데이터양이 기하급수적으로 증가하면서 중요성이 더 부각되고 있다.

이에, SK하이닉스는 176단 4D 낸드플래시(NAND Flash, 이하 낸드) 기반의 데이터센터 eSSD인 ▲PS1010 E3.S를 비롯해 ▲PE9010 M.2, 238단 4D 낸드 기반의 ▲PEB110 E1.S, QLC* 기반 61TB(테라바이트) 제품인 ▲PS1012 U.2* 등 압도적인 성능의 eSSD 제품을 선보였다.

* 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음
* U.2: SSD의 형태를 칭하는 폼팩터(FormFactor)의 일종으로 2.5인치 크기의 SSD로 주로 서버나 고성능 워크스테이션(Workstation)에서 사용됨. 대용량 저장과 높은 내구성이 특징

여기에는 자회사 솔리다임(Solidigm)이 작년 11월 개발한 ▲D5-P5336 122TB 제품도 포함됐다. 이 제품은 현존 최대 용량을 자랑하며, 높은 수준의 공간 및 전력 효율성까지 갖춰 AI 데이터센터 고객들로부터 큰 관심을 받았다.

고도화된 AI 구현을 지원하는 대용량 메모리 제품도 소개했다. SK하이닉스는 최근 AI 메모리 제품으로 많은 관심을 받는 HBM*의 최신 제품인 ▲16단 HBM3E를 공개했다. 이 제품은 1.2TB 이상의 대역폭과 48GB(기가바이트)의 용량을 갖춘 현존 최고 사양의 HBM으로 업계 관계자와 관람객으로부터 큰 관심과 호응을 얻었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전

▲ GDDR6-AiM과 AiMX

이와 함께, 데이터센터용 DIMM* 제품군인 ▲DDR5 RDIMM과 ▲MRDIMM* 등도 선보였다. 2024년, SK하이닉스는 업계 최초로 10nm 공정의 6세대 기술(1cnm)을 기반으로 한 DDR5를 개발했으며, 이 기술이 적용된 DDR5 RDIMM은 기존 제품 대비 동작 속도는 11%, 전력 효율은 9% 향상된 제품이다.

* DIMM(Dual In-line Memory Module): 여러 개의 D램이 기판에 결합한 모듈
* MRDIMM(Multiplexer Ranks Dual In-line Memory Module): DIMM 제품 중에서도, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

차세대 인터페이스로 주목받는 DDR5 기반의 CXL* 제품으로 최대 128GB의 개별 용량과 초당 35GB의 대역폭을 자랑하는 ▲CMM-DDR5* 역시 큰 관심을 받았다. 부스에서는 카드 형태의 CXL 메모리 제품인 ▲CMM-Ax의 모습도 확인할 수 있었다. CMM-Ax는 내부에 NMP(Near Memory Processing) 장치를 탑재해 연산 기능을 더한 제품으로, 최대 512GB 용량과 초당 76.8GB 대역폭의 압도적인 성능을 보인다.

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* CMM-DDR5: CXL 기술을 적용한 DDR5 기반 메모리 모듈로, 기존 대비 대역폭을 50% 확장하고 메모리 용량을 두 배로 늘려 고성능 컴퓨팅(HPC)과 AI 응용에서 탁월한 성능을 발휘함. SK하이닉스의 CMM-DDR5는 AI 추론 및 인메모리 데이터베이스(DB) 환경에서 데이터 접근 속도와 자원 활용을 최적화해 데이터 처리 효율을 크게 높임

▲ GDDR6-AiM과 AiMX

부스에서는 PIM* 제품군 역시 찾아볼 수 있었다. 초당 16Gb(기가비트)의 속도로 데이터를 처리하는 GDDR6에 연산기능을 더한 ▲GDDR6-AiM은 CPU/GPU와 함께 사용할 경우, 특정 조건에서 연산 속도가 최대 16배 이상 빨라지는 제품이다. 또한 가속기 카드 제품인 ▲AiMX*를 전시하며, AI 데이터센터를 혁신하는 ‘풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로서의 면모를 뽐냈다.

* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품

2. 일상 속 AI의 발견, ‘온디바이스 AI’

SK하이닉스는 데이터센터용 AI 메모리 제품에 이어 일상에서 사용하는 디바이스에 최적화된 온디바이스 AI* 제품들도 선보였다. LPCAMM2, ZUFS 4.0, PCB01 등 혁신적인 제품들은 전시 내내 많은 관람객의 이목을 끌었다.

* 온디바이스(On-Device) AI: 물리적으로 떨어진 서버의 연산을 거치지 않고 기기 자체에서 AI 기능을 구현하는 기술. 스마트폰 기기가 자체적으로 정보를 수집하고 연산하기 때문에 AI 기능의 반응 속도가 빨라지고 사용자 맞춤형 AI 서비스 기능도 강화되는 장점이 있음

먼저, 저전력, 고성능, 모듈 방식으로 구현한 ▲LPCAMM2*는 여러 개의 LPDDR5X*를 하나로 묶은 모듈로 기존 SODIMM* 두 개를 하나로 대체하는 성능을 제공한다. 저전력 특성에 더해, 공간 절약까지 가능해 최근 온디바이스 AI 제품으로 주목받고 있다.

* LPCAMM2(Low-Power Compression Attached Memory Module): 데스크톱/노트북/태블릿용 메모리를 차세대 모듈 규격(CAMM)에 맞춰 개발한 제품. 기존 모듈 대비 단면 구성으로 두께가 반으로 줄고, 고용량 저전력의 특성을 지니고 있음
* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성을 갖고 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품
* SODIMM(Small Outline DIMM): PC에서 사용되는 초소형 모듈로 전체 길이가 짧음

함께 전시된 ▲ZUFS* 4.0은 스마트폰에서 온디바이스 AI를 구현하는 데 최적화된 낸드 솔루션으로, 업계 최고 성능을 자랑한다. 기존 UFS와 달리, 데이터를 용도와 사용 빈도에 따라 다른 공간에 저장해 스마트폰 OS의 동작 속도와 저장 장치의 관리 효율성을 높인다는 특징이 있다. SK하이닉스는 이 제품 사용 시, 장시간 사용 환경에서 기존 UFS 대비 앱 실행 시간이 약 45% 개선되며, 성능 저하에 따른 제품 수명이 40% 늘어난 것을 확인했다.

* ZUFS(Zoned Universal Flash Storage): 디지털카메라, 휴대전화 등 전자제품에 사용되는 플래시 메모리 제품인 UFS의 데이터 관리 효율이 향상된 제품

▲PCB01은 온디바이스 AI PC에 최적화된 고성능 PCIe 5세대 SSD 제품이다. 연속 읽기 속도는 초당 14GB, 연속 쓰기 속도는 초당 12GB로 업계 최고 수준의 속도를 자랑한다. 또한, 전력 효율 역시 이전 세대 대비 30% 이상 개선되며 대규모 AI 연산 작업의 안정성을 제공한다.

이처럼 SK하이닉스는 CES 2025를 통해 데이터센터와 온디바이스 AI를 포괄하는 다양한 제품을 선보이며 기술의 폭넓은 적용 가능성을 제시했다. 회사는 “CES 2025에서 선보인 압도적인 성능의 AI 메모리 제품들을 통해 명실공히 ‘풀 스택 AI 메모리 프로바이더’의 면모를 선보였으며, AI 분야의 리더십을 확고히 다졌다”고 평가하며, “앞으로도 지속가능한 미래를 위해 AI 혁신을 지속적으로 추진할 것”이라고 밝혔다.

]]>
/ces-2025-sketch/feed/ 0
SK하이닉스, CES 2025에서 ‘풀 스택 AI 메모리 프로바이더’ 청사진 제시 /ces-2025/ /ces-2025/#respond Fri, 03 Jan 2025 00:00:49 +0000 /?p=45389 · 7일부터 나흘간 열리는 세계 최대 가전전시회 ‘CES 2025’ 참가해 기술력 선보여
· AI 인프라 핵심 ‘HBM’부터 PIM 등 차세대 메모리까지 AI 시대 이끌어갈 제품 총망라
· “기술 혁신 통해 AI 시대 새로운 가능성 제시하고 대체 불가능한 가치 제공하도록 최선을 다할 것”

SK하이닉스가 오는 7일부터 10일(현지 시간)까지 미국 라스베이거스에서 열리는 ‘CES 2025’에 참가해 혁신적인 AI 메모리 기술력을 선보인다고 3일 밝혔다.

이번 행사에는 곽노정 대표이사 사장(CEO, Chief Executive Officer)과 함께 김주선 AI Infra(인프라) 사장(CMO, Chief Marketing Officer), 안현 개발총괄 사장(CDO, Chief Development Officer) 등 SK하이닉스 ‘C-Level’(C레벨) 경영진이 참석한다.

SK하이닉스 김주선 사장은 “이번 CES에서 HBM, eSSD 등 대표적인 AI 메모리 제품을 비롯해 온디바이스 AI에 최적화된 솔루션과 차세대 AI 메모리를 폭 넓게 선보일 것”이라며, “이를 통해 ‘풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)*’로서 미래를 준비하는 당사의 기술 경쟁력을 널리 알리겠다”고 강조했다.

* ‘전방위 AI 메모리 공급자’라는 의미로, AI 관련 다양한 메모리 제품과 기술을 포괄적으로 제공하겠다는 의미

SK하이닉스는 ‘혁신적인 AI 기술로 지속가능한 미래를 만든다(Innovative AI, Sustainable tomorrow)’를 주제로 SK텔레콤, SKC, SK엔무브 등 SK 관계사들과 공동 전시관을 운영한다. 전시관은 SK그룹이 보유한 AI 인프라와 서비스가 세상을 변화시키는 모습을 빛의 파도 형태로 구성했다.

세계 최초로 5세대 HBM(HBM3E) 12단 제품을 양산해 고객에게 공급하고 있는 SK하이닉스는 작년 11월에 개발을 공식화한 5세대 HBM(HBM3E) 16단 제품 샘플을 이번 전시에 선보인다. 이 제품은 어드밴스드(Advanced) MR-MUF 공정을 적용해 업계 최고층인 16단을 구현하면서도 칩의 휨 현상을 제어하고 방열 성능을 극대화했다.

또, 회사는 AI 데이터센터 구축이 늘면서 수요가 급증하고 있는 고용량, 고성능 기업용 SSD(eSSD, enterprise SSD) 제품도 전시한다. 여기에는 자회사인 솔리다임(Solidigm)이 작년 11월 개발한 ‘D5-P5336’ 122TB(테라바이트) 제품도 포함된다. 이 제품은 현존 최대 용량에 높은 전력, 공간 효율성까지 갖춰 AI 데이터센터 고객들로부터 큰 관심을 받고 있다.

SK하이닉스 안현 사장은 “솔리다임에 이어 SK하이닉스도 지난 12월 QLC(Quadruple Level Cell)* 기반 61TB 제품 개발에 성공한 만큼 고용량 eSSD 시장에서 양사 간 균형 잡힌 포트폴리오를 바탕으로 시너지를 극대화할 수 있을 것으로 기대한다”고 전했다.

* 낸드플래시는 한 개의 셀(Cell)에 몇 개의 정보(비트 단위)를 저장하느냐에 따라 SLC(Single Level Cell, 1개)-MLC(Multi Level Cell, 2개)-TLC(Triple Level Cell, 3개)-QLC(Quadruple Level Cell, 4개)-PLC(Penta Level Cell, 5개) 등으로 규격이 나뉨. 정보 저장량이 늘어날수록 같은 면적에 더 많은 데이터를 저장할 수 있음

SK하이닉스는 PC나 스마트폰 같은 엣지(Edge) 디바이스에서 AI를 구현하기 위해 데이터 처리 속도와 전력 효율을 개선한 ‘LPCAMM2*’, ‘ZUFS 4.0’* 등 온디바이스 AI용 제품도 전시한다. 차세대 데이터센터의 핵심 인프라로 자리 잡을 CXL과 PIM(Processing in Memory), 그리고 각각 이를 적용해 모듈화한 CMM(CXL Memory Module)-Ax와 AiMX*도 함께 전시한다.

* LPCAMM2(Low Power Compression Attached Memory Module 2): LPDDR5X 기반의 모듈 솔루션 제품으로 기존 DDR5 SODIMM 2개를 LPCAMM2 1개로 대체하는 성능 효과를 가지면서 공간을 절약하고 저전력과 고성능 특성을 구현
* ZUFS(Zoned Universal Flash Storage): 플래시 메모리 제품인 UFS의 데이터 관리 효율을 향상시킨 제품으로, 유사한 특성의 데이터를 동일한 구역(Zone)에 저장하고 관리해 운용 시스템과 저장 장치 간의 데이터 전송을 최적화함
* AiMX(AiM based Accelerator): SK하이닉스의 PIM 제품인 GDDR6-AiM 기반 가속기 카드

특히, CMM-Ax는 고용량 메모리를 확장할 수 있는 CXL의 장점에 연산 기능을 더해 차세대 서버 플랫폼*의 성능과 에너지 효율 향상에 기여할 수 있는 획기적인 제품이다.

* 플랫폼(Platform): 하드웨어와 소프트웨어 기술이 집약된 컴퓨팅 시스템(Computing System)을 의미. CPU, 메모리 등 컴퓨팅을 가능하게 하는 모든 중요 구성 요소를 포함하는 시스템

SK하이닉스 곽노정 CEO는 “AI가 촉발한 세상의 변화는 올해 더욱 가속화할 전망으로, 당사는 올해 하반기 6세대 HBM(HBM4)을 양산해 고객들의 다양한 요구에 부합하는 맞춤형(Customized) HBM 시장을 선도하겠다”며 “SK하이닉스는 앞으로도 기술 혁신을 바탕으로 AI 시대에 새로운 가능성을 제시하고, 고객들에게 대체 불가능한 가치를 제공할 수 있도록 최선을 다하겠다”고 밝혔다.

▲ CES 2025 SK하이닉스 전시 조감도

]]>
/ces-2025/feed/ 0
[2024 뉴스룸 결산] ‘SK하이닉스 르네상스의 원년’ 올해를 빛낸 순간들 /2024-year-end-review/ /2024-year-end-review/#respond Tue, 31 Dec 2024 00:00:51 +0000 /?p=45189 올해 SK하이닉스는 글로벌 No.1 AI 메모리 프로바이더(Global No.1 AI Memory Provider)를 목표로 기술 혁신을 거듭해 AI 메모리 시장 1위의 자리를 굳건히 했다. D램(DRAM)과 낸드플래시(NAND Flash, 이하 낸드)를 아우르는 ‘풀스택 AI 메모리 프로바이더*(Full Stack AI Memory Provider)’로 나아가기 위한 준비도 착실히 해나갔다. 이 가운데 회사는 임직원 간 소통을 강화하고 구성원 가족의 행복을 챙기는 한편, 지속가능한 환경을 조성하는 데 많은 노력을 기울였다. 뉴스룸은 숨가쁘게 달려온 2024년 한 해를 정리해 봤다.

* 풀스택 AI 메모리 프로바이더: D램과 낸드 전 영역에서 초고성능 AI 메모리 포트폴리오를 갖춘 기업

1. HBM부터 낸드까지, 탄탄히 쌓은 AI 메모리 포트폴리오

2024년에도 인공지능(AI) 열풍이 거셌다. 특히 올해는 텍스트 기반에서 멀티모달*로 나아가기 위한 연구·개발도 활발히 진행됐다. SK하이닉스는 D램부터 낸드까지 AI 메모리 라인업을 빈틈없이 채우며 시장에 대응했다. 멀티모달 시대를 앞당기기 위한 차세대 메모리 연구에도 적극 나섰다. 이를 통해 회사는 AI 메모리 리더십을 공고히 하며 명실상부한 글로벌 No.1 AI 컴퍼니로 자리매김했다.

* 멀티모달(Multi Modal): 텍스트, 사진, 음성, 동영상 등 여러 복합 정보를 이해할 수 있는 AI 서비스

세계 최초 HBM3E 양산 및 HBM3E 16단 개발 공식화

HBM* 분야에서의 세계 기록은 올해도 쏟아졌다. SK하이닉스는 지난 3월 세계 최초로 ‘HBM3E’를 양산하며 AI 메모리 선도 기업으로서 위상을 다졌다[관련기사]. HBM3E는 초당 최대 1.18TB(테라바이트)의 데이터를 처리하는 제품으로, 회사는 개발을 알린 지 7개월 만에 양산하는 성과를 냈다. 9월에는 36GB(기가바이트) 용량의 ‘HBM3E 12단’을 세계 최초로 양산했다[관련기사]. 빠른 양산으로 압도적 기술력을 증명한 회사는 11월 현존 최대 용량인 ‘HBM3E 16단(48GB)’ 개발도 공식적으로 알렸다[관련기사].

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전

AI 메모리를 위한 투자·협력 확대

지난 4월 SK하이닉스는 AI 메모리의 경쟁력을 높이고자 활발한 투자·협력에 나섰다. 먼저 미국 인디애나 주와 투자 협약을 맺고, 어드밴스드 패키징 공장 설립을 본격화했다[관련기사]. TSMC와의 기술 협력도 추진했다[관련기사]. 이로써 회사는 베이스 다이(Base die)에 로직(Logic) 공정을 적용한 HBM4를 선보이고, 고객·파운드리·메모리 간 협업을 강화하겠다는 계획을 밝혔다. 청주 M15X를 D램 생산기지로 결정했다는 소식 또한 전하며[관련기사], 20조 원 이상 투자해 급증하는 HBM 수요에 대응하겠다고 강조했다.

AI를 위한 낸드 혁신 가속화

낸드 분야에서의 성과도 빛났다. 5월, 회사는 온디바이스(On-Device) AI용 낸드 솔루션 ‘ZUFS* 4.0’ 개발에 성공했다[관련기사]. 6월에는 거대언어모델(LLM)*을 1초 내에 구동하는 온디바이스 AI PC용 SSD ‘PCB01’을 개발했고[관련기사], 9월과 12월에는 데이터 전송 속도가 32GT/s(초당 기가트랜스퍼)에 달하는 데이터센터용 SSD ‘PEB110 E1.S[관련기사]’와 AI 데이터센터용 SSD ‘PS1012 U.2[관련기사]’를 각각 개발했다. 11월에는 세계 최고층 ‘321단 낸드’를 양산하기 시작했다[관련기사]. 3-플러그* 기술로 적층 한계를 돌파하고, 성능 및 생산성을 높인 이 제품은 AI향 고성능·저전력 시장에서 활약할 것으로 기대를 모은다.

* ZUFS(Zoned Universal Flash Storage): 디지털카메라, 휴대전화 등 전자제품에 사용되는 플래시 메모리 제품인 UFS의 데이터 관리 효율이 향상된 제품. 이 제품은 유사한 특성의 데이터를 동일한 구역(Zone)에 저장하고 관리해 운용 시스템과 저장 장치 간의 데이터 전송을 최적화함
* 거대언어모델(Large Language Model, LLM): 방대한 양의 데이터를 학습한 언어 모델로, 텍스트를 생성, 요약, 번역하는 등 생성형 AI 작업을 수행하는 데 필수적인 역할을 함
* 플러그(Plug): 여러 층의 기판을 쌓은 뒤 셀을 한 번에 형성하기 위해 내는 수직 구멍

주력 D램 제품 및 차세대 AI 메모리 성과 공개

SK하이닉스는 주력 D램 제품군에서도 혁신을 이어갔다. 7월에는 세계 최고 사양의 ‘GDDR7’을 공개했다[관련기사]. 기존 대비 60% 빠른 이 제품은 고사양 3D 그래픽 작업은 물론 AI 구동 등에 폭넓게 활용될 것으로 기대된다. 8월에는 세계 최초로 ‘10나노급 6세대(1cnm) 미세공정을 적용한 DDR5’ 개발 소식을 알렸다[관련기사]. 혁신적인 1cnm 기술은 차세대 HBM, LPDDR6, GDDR7에도 적용될 예정이다.

회사는 차세대 AI 메모리도 꾸준히 준비했다. 관련해 9월에는 PIM* 기반 가속기 카드인 ‘AiMX’의 성능을 시연했고[관련기사], 10월에는 ‘CMM-Ax’ 등의 CXL®* 기반 솔루션을 다채롭게 선보였다[관련기사].

* PIM(Processing-In-Memory): 메모리에 연산 기능을 더해 AI와 빅데이터 처리에서 데이터 이동 정체 문제를 해결하는 차세대 기술
* CXL®(Compute Express Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스

이렇게 올 한 해 SK하이닉스는 HBM, 낸드 솔루션, 주력 D램 제품에서 기술 혁신을 이뤄내며 풀스택 AI 메모리 프로바이더로 나아가기 위한 내실을 다졌다.

2. 소통·가족 친화적 프로그램으로 강화한 기업문화

SK하이닉스의 혁신은 활발한 소통을 기반으로 한 원팀(One Team) 문화, 가족 친화적 기업문화에서 비롯된다. 올해도 회사는 구성원과 소통하고, 구성원 및 구성원 가족을 대상으로 축제의 장을 마련하는 등 기업문화 활성화에 공을 들였다.

다양한 소통 프로그램으로 원팀 결속력 증대

SK하이닉스의 활발한 소통 행보는 연초부터 이어졌다. 2월에는 CEO와 구성원이 함께하는 ‘The 소통’을 개최했다[관련기사]. 행사에는 곽노정 대표이사 사장과 주요 경영진, 구성원이 참석해 경영 현안에 대해 터놓고 이야기 나눴다. 5월에는 New CoC* 실천 사례를 공유하는 ‘초세행 콘서트’를 열었고[관련기사], 9월에는 ‘SK하이닉스 미래포럼’을 개최해 반도체의 현재와 미래를 살폈다[관련기사]. 곽노정 사장, 주요 임원진, 국내 주요 대학 교수진과 구성원들이 한데 모인 이 행사에서는 수많은 인사이트와 비전이 공유됐다.

* New CoC(New Code of Conduct): ‘초기술로 세상을 더 행복하게’라는 핵심 가치를 실천하기 위해 경영진과 구성원이 함께 만든 구성원 행동 가이드라인

가족 친화적 프로그램으로 일과 가정의 양립 지원

5월과 9월에는 이천·청주·분당 캠퍼스에 축제의 장이 펼쳐졌다. SK하이닉스는 화합과 소통을 위한 콘서트 ‘The 캠퍼스 비긴어게인’을 봄·가을[관련기사]에 개최하며 구성원들에게 힐링의 시간을 선물했다. 구성원 리프레시 프로그램[관련기사]도 제공했다. 휴양과 자녀 교육을 동시에 누리는 ‘The 에듀캉스’, 가족·지인과 함께하는 휴양소 ‘The 캠프’를 운영해 구성원 가족의 행복감을 키워주었다. 사내 부부를 대상으로 가족사진 촬영 이벤트를 열고, 서로 배우고 성장하는 이야기를 소개하기도 했다[관련기사].

이처럼 회사는 소통 및 가족 친화 프로그램을 통해 혁신의 근간인 기업문화를 더욱 단단히 다져나갔다.

3. 인재 육성·지역 나눔·환경 보호 등 SV 창출에 앞장

SK하이닉스는 지난 2월 ‘행복나눔기금*’ 23억 원을 사회복지공동모금회에 기탁하며 2024년 사회적 가치(Social Value) 창출 활동을 본격화했다[관련기사]. 이를 시작으로 인재 육성, 지역사회 및 취약계층 지원, 탄소 저감 등 지속가능한 세상을 위한 SV 활동을 꾸준히 전개했다.

* 행복나눔기금: 구성원들이 자발적으로 모금한 기부금. 인재 육성, 지역사회 나눔, 취약계층 지원 등에 두루두루 쓰인다.

초·중·고·대학생 대상 폭넓은 미래 인재 육성

SK하이닉스는 반도체 미래 인재를 육성하기 위한 다양한 사업을 진행하고 있다. 올해 3월에는 ‘반도체 커리큘럼*’ 우수 학습자를 이천캠퍼스로 초청, 현장 투어 및 진로 상담을 제공해 많은 호응을 얻었다[관련기사]. 6월에는 대학교 학부생, 대학원생을 대상으로 ‘AiM* 이론 및 실습 교육’을 제공했다[관련기사]. 학생들의 높은 관심 속에 열린 이 행사는 “전문적이고 실용적인 AI 교육”이라고 평가받았다. 9월에는 하인슈타인* 참가생의 성과를 공유하는 ‘하인슈타인 올림피아드’를 개최하며[관련기사], 인재 양성에 앞장섰다.

* 반도체 커리큘럼: SK하이닉스의 기술 역량과 노하우를 바탕으로 사내 전문가가 만든 ‘실무 중심 반도체 온라인 학습 콘텐츠’를 대학교에 제공. 이로써 반도체 생태계 구축에 기여하고 학생들을 미래 반도체 인재로 성장할 수 있도록 돕기 위한 학습 프로그램
* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, GDDR6-AiM이 이에 포함됨
* 하인슈타인: “성공한 사람보다는 가치 있는 사람이 되어라”라는 세계적인 천재과학자 아인슈타인의 뜻을 이어받아, 더 가치 있는 미래 ICT 인재를 육성하는 교육 지원 프로그램. 2013년부터 다양한 교육 프로그램으로 운영, 2018년 ‘하인슈타인 사업’으로 통합되어 추진 중이다.

보호 아동부터 취약 노인까지, 곳곳에서 나눔 활동

올해 구성원들은 유기동물을 비롯해 아동, 취약노인 등 도움이 필요한 소중한 존재들에게 나눔의 손길을 건넸다. 구성원 행복 쉐어링(Sharing) 프로그램 ‘나눔의 확실한 행복’에 참여한 구성원들은 4월, 8월, 9월에 걸쳐 유기동물 보호소[관련기사], 아동 보육시설[관련기사], 지역 농가[관련기사]에 방문해 일손을 거들었다. 회사는 10월, ‘청춘여행’[관련기사]과 ‘충북 SR포럼’[관련기사]도 개최했다. 청춘여행을 통해 취약노인에게 문화활동의 기회를 제공했고, 포럼을 통해 시니어의 삶의 질 향상, 디지털 역량 강화 방안을 모색했다.

기술·캠페인 차원의 다각적 친환경 활동

올해 SK하이닉스는 다각적 노력을 통해 지속가능한 환경을 조성하기도 했다. 기술적으로는 탄소관리위원회의 친환경 기술을 들 수 있다. 관련해 네온가스 재활용[관련기사], 공정용 대체가스 개발[관련기사], 고효율·저전력 스크러버 개발[관련기사], 저전력 펌프 개발[관련기사] 등의 성과를 공개했다.

캠페인 차원의 노력도 펼쳤다. 회사는 4월, 용인 반도체 클러스터 주변 하천인 안성천의 생물다양성을 보전하고자 ‘안성천 모니터링[관련기사]’을 진행했다. 11월에는 이천캠퍼스 주변 복하천의 수질을 보전·개선하기 위해 ‘물길봉사대[관련기사]’를 조직한 뒤 환경 정화 활동에 참여했다.

지금까지 2024년의 SK하이닉스를 되돌아봤다. 올해 SK하이닉스는 기술·문화·환경적으로 값진 성과를 기록하며 성장하는 시간을 보냈다. 2025년에도 회사는 탄탄한 기업문화를 바탕으로 사회적 가치를 창출하는 동시에 글로벌 AI 메모리 시장 1위의 자리를 굳건히 지켜나갈 계획이다.

]]>
/2024-year-end-review/feed/ 0
SK하이닉스, ‘슈퍼컴퓨팅 2024’에서 HPC와 AI 혁신 솔루션 공개하며 AI 시장 리더십 입증 /sc24-ai-hpc-exhibition/ /sc24-ai-hpc-exhibition/#respond Thu, 21 Nov 2024 00:00:24 +0000 /?p=42534

SK하이닉스가 17일부터 22일까지(미국시간) 미국 조지아주 조지아 월드 콩그레스 센터(Georgia World Congress Center)에서 열린 ‘슈퍼컴퓨팅 2024(Super Computing 2024, 이하 SC 2024)’에 참가해 HPC와 AI를 위한 최첨단 솔루션을 선보였다.

SC 2024는 1988년부터 매년 열리는 HPC 분야의 대표적 글로벌 콘퍼런스로, HPC와 AI 기술의 최신 동향을 공유하고 업계 전문가들이 교류하는 행사다.

올해 SK하이닉스는 ‘MEMORY, THE POWER OF AI’를 주제로 전시를 열어, HPC·AI 제품 시연과 함께 첨단 메모리와 스토리지 기술에 대한 발표를 진행했다. 회사는 이번 행사를 통해 SK하이닉스의 축적된 기술력을 선보이며 글로벌 시장에서의 AI 리더십을 입증했다.

AI 데이터센터 기술의 미래를 선도하는 솔루션

SK하이닉스는 글로벌 AI 메모리 시장에서의 기술 리더십을 보여주는 다양한 제품을 전시했다. 데이터센터 솔루션 섹션에서는 ▲HBM3E ▲DDR5 Server DIMM ▲Enterprise SSD 등 회사의 핵심 제품을 선보였다.

데이터 처리 성능이 향상된 차세대 메모리 HBM3E가 전시되어 관람객들의 눈길을 끌었다. HBM3E[관련기사]는 현존하는 HBM* 제품 중 최대 용량인 36GB를 구현한 신제품으로, AI 메모리 시장을 선도하는 기술력을 통해 주요 고객사와의 협력을 한층 강화하고 있다. AI 반도체 제조사들이 점점 더 방대한 데이터를 빠르게 처리할 수 있는 고용량 HBM이 필요함에 따라, SK하이닉스는 지난 9월 업계 최초로 12단 적층 D램 양산을 시작하며 반도체 시장 변화에 빠르게 대응했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전.

이와 함께, 회사는 DDR5 RDIMM(1cnm)을 공개해 큰 관심을 끌었다. 이 제품은 차세대 미세화 공정이 적용된 D램으로, 전력 효율이 높아져 데이터센터 전력 비용 절감에 기여할 것으로 기대된다. 또한 회사는 고성능 서버용으로 설계된 다양한 DDR5 모듈의 DDR5 MCRDIMM*과 DDR5 3DS RDIMM 등의 제품군을 소개했다.

* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

이외에도 SK하이닉스는 기존 출시한 초고성능 PCIe* 5세대 제품 PS1010과 더불어, 데이터센터용 PCIe 5세대 eSSD(Enterprise SSD) 신제품 PEB110을 공개했다. PCIe 5세대 기술은 이전 세대보다 대역폭이 두 배로 넓어져 더 빠른 데이터 전송 속도를 제공하며, PEB110은 이를 통해 전력 효율과 성능이 크게 개선됐다.

* PCIe(Peripheral Component Interconnect express): 디지털 기기의 메인보드에서 사용하는 직렬 구조의 고속 입출력 인터페이스

HPC·AI 혁신 솔루션 한 자리에… 미래 기술로 성능 혁신을 보여주다

HPC·AI 솔루션 섹션에서는 차세대 메모리 기술을 통한 데이터 처리와 응용 성능 향상을 실감할 수 있도록 다양한 고성능 솔루션을 시연했다.

SK하이닉스는 이번 행사에서 차세대 메모리 기술인 CXL(Compute Express Link)*을 적용한 CMM-DDR5*를 선보였다. CXL 메모리는 여러 컴퓨팅 장치가 메모리를 공유하여 데이터 전송 속도와 자원 활용도를 높이는 기술로, HPC와 AI 응용에 필요한 메모리 용량 확장을 지원한다. 이러한 CXL 메모리 기술이 적용된 CMM-DDR5 데모에서는 Intel® Xeon® 6 프로세서가 장착된 서버 플랫폼을 사용해 AI 데이터 처리 작업을 더 빠르게 수행하는 사례를 소개해 큰 호응을 얻었다.

* CXL(Compute Express Link): 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스. 기존 메모리 모듈에 CXL을 적용하면 용량을 10배 이상 확장할 수 있음
* CMM-DDR5: CXL 기술을 적용한 DDR5 기반 메모리 모듈로, 기존 대비 대역폭을 50% 확장하고 메모리 용량을 두 배로 늘려 고성능 컴퓨팅(HPC)과 AI 응용에서 탁월한 성능을 발휘함. SK하이닉스의 CMM-DDR5는 AI 추론 및 인메모리 데이터베이스(DB) 환경에서 데이터 접근 속도와 자원 활용을 최적화해 데이터 처리 효율을 크게 높임

또한 회사는 PIM*기술을 활용한 AiMX*를 통해 최신 언어 모델인 LLaMA-3 70B의 실시간 처리 성능을 시연했다. 데이터센터의 언어 모델 서비스는 여러 사용자의 요청을 동시에 처리하는 방식으로 GPU 효율을 개선하고 있으나, 동시에 처리할 요청이 많아짐에 따라 이 과정에서 발생하는 결과물인 생성 토큰의 길이가 증가하여 GPU 효율이 낮은 Attention Layer*의 연산량이 커지는 문제가 있다. 이번에 공개된 SK하이닉스의 AiMX는 연산을 가속해 데이터 처리 속도를 높이고 전력 소모를 줄임으로써, 대량 데이터를 효율적으로 처리할 수 있는 고성능·저전력 솔루션으로서의 강점을 보여줬다.

* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품
* Attention Layer: 입력 데이터의 각 부분에 가중치를 부여하여 관련 정보에 더 집중하게 하는 메커니즘으로 언어모델에서 사용되는 핵심 알고리즘

나이아가라(Niagara) 2.0 데모에서는 CXL Pooled Memory* 솔루션을 활용해 거대언어모델(LLM) 추론 서비스에서 발생하는 LLM 모델 스위칭* 오버헤드를 개선하는 방안을 선보였다. 이 솔루션은 GPU 메모리 부족으로 인해 불가피하게 발생하는 LLM 모델 스위칭 오버헤드를 줄여 추론 시간을 단축할 수 있음을 보였다.

* Pooled Memory: 여러 개의 CXL 메모리를 묶어 풀(Pool)을 만들어 여러 호스트가 효과적으로 용량을 나누어 사용하여 전반적인 메모리 사용률을 높이는 기술
* LLM 모델 스위칭: GPU 메모리상의 기존 LLM 모델을 삭제하고 사용자의 요청에 맞는 LLM 모델을 load 하는 기능

SSD 시연에서는 Checkpoint Offloading SSD 솔루션을 활용해 체크포인팅(Checkpointing)* 기술을 효과적으로 지원함으로써, LLM 학습 시스템에서 발생하는 장애로 인한 자원 및 비용 낭비를 줄이고 학습 성능을 향상시킬 수 있음을 보였다.

* 체크포인팅(Checkpointing): 학습 과정 중 특정 시점의 모델 파라미터와 관련 주요 데이터를 저장하여 시스템 장애 발생 시 저장된 특정 시점에서 학습을 재시작할 수 있도록 지원하는 기술

SK하이닉스는 미국 로스앨러모스 국립연구소(Los Alamos National Laboratory, 이하 LANL)*와 협업하여 개발한 객체 기반 연산 스토리지(Object-based Computational Storage, OCS)* 기술을 활용해 필요한 데이터만 분석 서버로 전송함으로써 HPC 환경의 데이터 병목 현상을 개선하는 데모를 선보였다. 또한, 대규모 데이터 처리에서 성능을 크게 향상시킬 수 있는 HBM 기반 NMP(Near-Memory Processing)* 기술도 함께 소개했다.

* LANL(Los Alamos National Laboratory): 미국 에너지부 산하 국립연구소로 국가안보와 핵융합 분야를 비롯해 우주탐사 등 다양한 분야의 연구를 하는 곳으로 특히 2차 세계대전 당시 맨해튼 프로젝트에 참여해 세계 최초로 핵무기를 개발한 곳
* 객체 기반 연산 스토리지(Object-based Computational Storage, OCS): 데이터 분석을 위해 설계된 컴퓨팅 스토리지 솔루션으로, 데이터 인식 기능을 통해 컴퓨팅 노드의 도움 없이 독립적으로 분석 작업을 수행할 수 있음. 이 기술은 고성능 컴퓨팅(HPC) 환경에서 대규모 데이터의 효율적 처리를 가능하게 함
* NMP(Near-Memory Processing): CPU-메모리 간 데이터 이동 시 발생하는 병목 현상을 해결하고, 처리 성능 향상을 위해 연산 기능을 메인 메모리 옆으로 이동하는 메모리 아키텍처

발표 세션에서 차세대 HPC·AI 기술 비전 제시

SK하이닉스는 이번 행사에서 주요 연사로 나서 자사의 기술 비전과 차세대 솔루션을 공유했다. 박정안 TL(Sustainable Computing)은 LNAL와 공동 개발한 객체 기반 연산 스토리지(Object-based Computational Storage, OCS) 표준화에 대해 발표했다. 박 TL은 “SK하이닉스의 OCS는 추가적인 컴퓨팅 자원 없이도 데이터 저장 장치가 스스로 분석을 수행해 기존보다 빠르고 효율적인 데이터 처리를 가능하게 한다”고 밝혔다.

또한 김종률 팀장(AI System Infra)은 ‘HPC·AI 시스템을 위한 메모리와 스토리지의 힘’을 주제로, SK하이닉스의 최신 연구 성과를 기반으로 한 메모리와 스토리지 기술을 소개했다. 김 팀장은 HPC·AI 시스템에 적용할 수 있는 CXL 메모리와 HBM 기반의 Near-Memory Processing 기술 및 CXL Pooled Memory 기반의 데이터 공유 기술에 대한 연구 결과와 기술 인사이트를 소개하였다.

]]>
/sc24-ai-hpc-exhibition/feed/ 0
SK하이닉스, SK AI Summit 2024에서 현존 최대 용량의 ‘HBM3E 16단’ 개발 공식화 /sk-ai-summit-2024/ /sk-ai-summit-2024/#respond Tue, 05 Nov 2024 21:00:00 +0000 http://localhost:8080/sk-ai-summit-2024/ 삼성동 코엑스에서 개최된 SK AI 서밋 2024 현장

▲ 삼성동 코엑스에서 개최된 SK AI 서밋 2024 현장

SK하이닉스가 4일부터 양일간 서울 삼성동 코엑스에서 열린 ‘SK AI Summit 2024(이하 AI 서밋)’에 참가했다. ‘AI 투게더, AI 투모로우(AI Together, AI Tomorrow)’를 주제로 열린 이 행사에서 회사는 현존 HBM* 최대 용량인 48GB(기가바이트) 기반의 ‘HBM3E 16단’개발 사실을 공식적으로 알리고, 핵심 성과를 집대성해 선보였다. 이와 함께 ‘풀 스택 AI 메모리 프로바이더(Full Stack AI Memory Provider)’로 나아가기 위한 비전도 공유했다.

AI 서밋은 SK 그룹이 매년 개최하던 SK 테크 서밋[관련기사]을 AI 중심으로 격상한 행사다. 올해 행사에서는 글로벌 AI 대가들이 모여 범용인공지능 시대의 생존법을 논의하고 AI 생태계 강화 방안을 모색했다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨 HBM3E는 HBM3의 확장(Extended) 버전

특히 SK 최태원 회장, SK하이닉스 곽노정 대표이사 사장, SK텔레콤 유영상 사장을 비롯해 오픈AI 회장 겸 사장 그레그 브로크만(Greg Brockman), 마이크로소프트(MS) 총괄 부사장 라니 보카르(Rani Borkar) 등 다양한 분야의 전문가가 참석해 의미를 더했다. 아마존웹서비스(AWS), MS 등 빅테크 기업과 K-AI 얼라이언스 회원사도 동참해 부스를 꾸리고 업계 관계자 및 관람객과 교류하는 시간을 가졌다.

SK하이닉스는 AI 산업의 키플레이어로서 행사에 참여해 자사 제품과 성과를 공유했다. 특히, HBM3E 16단 발표가 큰 주목을 받았다. 발표에는 곽노정 사장을 비롯해 강욱성(차세대 상품기획 담당), 박문필(HBM PE 담당), 이강욱(PKG개발 담당), 주영표(소프트웨어 솔루션 담당), Paul Fahey(SKHYA) 부사장 등이 참석해 회사의 기술 리더십을 알렸다.

SK AI 서밋 2024에서 개회사를 전하고 있는 SK 최태원 회장

▲ SK AI 서밋 2024에서 개회사를 전하고 있는 SK 최태원 회장

이날 최태원 회장은 ‘AI 투게더, AI 투모로우’란 주제에 걸맞은 담론과 비전을 제시하며 행사의 포문을 열었다. 최 회장은 “AI는 초기 단계이고 모르는 것이 많기에 문제 해결과 진전을 위해선 많은 사람의 참여와 협력이 중요하다”고 밝혔다. 또, 최 회장은 “SK는 칩(Chip)부터 에너지, 데이터 센터 구축·운영, 서비스 개발, 유즈케이스(Use-Case)까지 모두 커버하는 글로벌 기업”이라며 “각 분야 최고의 파트너들과 협업 중이고 이를 통해 글로벌 AI 혁신을 만들어 나가겠다”고 강조했다.

곽노정 사장, 기조연설 통해 ‘HBM3E 16단’ 개발 사실 공식화해

4일 ‘차세대 AI 메모리의 새로운 여정, 하드웨어를 넘어 일상으로(Next AI Memory, Hardware to Everywhere)’를 주제로 기조연설을 펼친 곽노정 사장은 이 자리에서 HBM3E 16단 제품을 개발하고 있다고 공식 발표했다.

곽 사장은 “D램 칩 16개를 적층해 48GB 용량을 구현했고, 양산성이 검증된 어드밴스드 MR-MUF 기술*을 적용했으며, 백업(Back Up) 공정으로 하이브리드 본딩* 기술도 함께 개발 중”이라고 설명했다. 또, “16단은 12단 대비 AI 학습 성능을 최대 18%, 추론 성능을 최대 32% 향상할 수 있다”고 덧붙였다. HBM3E 16단은 2025년 상용화를 목표로 하고 있다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술
* 하이브리드 본딩(Hybrid Bonding): 칩을 적층할 때, 칩과 칩 사이에 범프를 형성하지 않고 직접 접합시키는 기술. 이를 통해 칩 전체 두께가 얇아져 고단 적층이 가능해지며, 16단 이상의 HBM 제품에서 필요성이 검토되고 있음. SK하이닉스는 어드밴스드 MR-MUF와 하이브리드 본딩 방식을 모두 검토하고 있음

이번 발표에서 곽 사장은 ‘World First(세계 최초 개발·양산 제품), Beyond Best(차세대 고성능 제품), Optimal Innovation(AI 시대, 시스템 최적화 제품)’이란 로드맵도 공개했다. 그는 “HBM3E 16단과 DDR5 RDIMM(1cnm)[관련기사] 등을 세계 최초로 개발한 데 이어 HBM4, UFS* 5.0 등 차세대 고성능 제품을 개발할 계획”이라고 밝혔다. 또, “장기적으로는 AI에 최적화된 커스텀(Custom) HBM, CXL®* 등을 상용화해 풀 스택 AI 메모리 프로바이더로 성장하겠다”고 강조했다.

* UFS(Universal Flash Storage): 모바일 저장장치 규격 중 하나로, 기존 eMMC(embedded MultiMediaCard)와 달리 동시 읽기·쓰기가 가능하다. PC 저장장치(SSD)의 빠른 속도와 모바일 저장장치(eMMC)의 저전력 특징을 모두 갖춘 규격으로, 4.0 버전까지 개발됐다.
* CXL®(Compute Express Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스

HBM4에 대한 언급도 눈길을 끌었다. 곽 사장은 “세계 최고의 파운드리와 협력해 전력 소모를 줄이는 방향으로 베이스 다이(Base Die) 성능을 개선하는 중”이라며 “원팀 파트너십을 바탕으로 최고 경쟁력을 갖춘 제품을 공급하고 HBM 선도 업체의 위치를 더욱 공고히 할 것”이라고 말했다.

주요 임원진 참석, HBM 및 차세대 메모리 인사이트 전해

박문필 부사장과 유승주 교수(서울대학교 컴퓨터공학부)는 ‘가속기 트렌드와 HBM 전망’을 주제로 각각 발표했다. “AI 추론 비용이 증가한다”는 유 교수의 전망에 박 부사장은 “성능·비용 최적화를 이유로 커스텀 HBM이 떠오른다”며 “고객·파운드리·메모리 간 3자 협업으로 대응하고 있다”고 강조했다.

이어서 주영표 부사장과 구건재 교수(고려대학교 컴퓨터학과)가 ‘미래 아키텍처와 신규 메모리 솔루션’에 관해 논의했다. 구 교수는 새로운 시스템 소프트웨어 구조의 필요성을 짚었고, 주 부사장은 이 요구에 발맞춘 SK하이닉스의 신규 메모리 솔루션으로 CXL®, PIM* 등을 소개했다.

* PIM(Processing-In-Memory): 메모리에 연산 기능을 더해 AI와 빅데이터 처리에서 데이터 이동 정체 문제를 해결하는 차세대 기술

‘초연결 시대의 디지털 신경망: AI와 Memory가 그리는 미래 산업 지형’을 주제로 대담도 열렸다. 이 자리에는 강욱성 부사장과 Paul Fahey 부사장이 참석했다. 두 임원은 “미래에는 로직 공정을 베이스 다이에 적용한 HBM, 온디바이스에서 큰 역할을 할 PIM, 메모리 공유 기능을 가진 CXL®의 역할이 증대될 것”이라며 “SK하이닉스는 파트너사와 긴밀히 협력해 차세대 AI 메모리 제품을 만들고 있다”고 설명했다.

이강욱 부사장은 업계 관계자들이 모인 세션에 패널로 참여해 ‘AI 반도체와 인프라의 진화’를 주제로 토의를 진행했다.

이외에도 이병규(DT) TL이 ‘E2E 자동화로 반복 업무 탈출, 고부가가치 업무로 전환하는 반도체 FAB 이야기’를 주제로 발표했고, 김문욱·장세남(DT) TL이 ‘지능형 이미지 분류 AI 시스템 적용을 통한 생산 품질 업무 경쟁력 강화’에 대해 공동발표를 진행했다.

권종오(PKG개발) 팀장, 황인태(P&T)·윤성현(기반기술센터) TL, 김정한(미래기술연구원) TL은 ▲16단 HBM 패키징 기술 ▲딥러닝을 활용한 HBM 생산 고도화 ▲AI를 활용한 반도체 연구 등을 주제로 기술 인사이트를 공유했다.

전재영(메모리시스템연구소) TL, 이경수(메모리시스템연구소) TL, 박상수(미래기술연구원) TL은 ▲이종 메모리의 가능성 ▲온디바이스 AI의 요구사항 ▲차세대 컴퓨테이셔널 메모리(Computational Memory)를 주제로 미래 메모리 기술을 검토했다.

AI 서비스 영역의 발표를 맡은 박은영(안전보건환경) 팀장은 ‘SK하이닉스의 현장 안전 로봇 가온(Ga-on) 도입 및 운영 사례’를 공개해 많은 관심을 모았다.

주요 발표와 연계한 AI 메모리 라인업도 선보여

AI로 깊이 빠져들다(Deep Dive into AI)를 테마로 구성된 SK 공동부스에서는 SK하이닉스의 AI 메모리 라인업을 모두 만나볼 수 있었다.

특히 SK하이닉스는 미래 메모리 솔루션으로 언급한 CMM(CXL® Memory Module)-DDR5와 AiMX도 선보였다. CMM-DDR5는 이론적으로 기존 시스템 대비 최대 50%의 대역폭, 최대 100%의 용량 확장을 지원한다. AiMX는 GDDR6-AiM*을 여러 개 탑재한 가속기 카드로, 저장과 연산 기능을 모두 수행해 AI의 품질을 높이는 제품이다.

회사는 고성능 컴퓨팅(HPC)과 AI 서버를 위한 초고속 메모리 모듈로, 초당 8.8Gb(기가비트) 속도의 DDR5 MCRDIMM* 또한 전시했다. 이외에 LPDDR5X* 여러 개를 모듈화한 LPCAMM2를 온디바이스 AI 분야에서 활약할 제품으로 소개했고, AI 및 데이터센터 최적화 제품으로 PS1010 E3.S 등의 eSSD도 선보였다.

부스에서는 AI 기반 시스템 및 솔루션도 살펴볼 수 있었다. 회사는 ‘AI 기반 소재 품질 사전 예측 시스템’과 SK하이닉스 제품으로 구성된 ‘오토모티브 솔루션’을 공개하며 많은 관람객의 이목을 끌었다.

* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, GDDR6-AiM이 이에 포함됨
* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품
* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성이 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품

이번 행사에서 곽노정 사장은 “당사는 AI 전 영역에 걸친 AI 메모리 솔루션을 보유하고, 여러분과 함께 새로운 미래 경험을 창조해 나갈 준비가 되어 있다”고 강조한 바 있다. 발표와 전시를 성황리에 마친 SK하이닉스는 SK 서밋을 통해 공개한 비전에 발맞춰 미래 시장 준비를 더욱 철저히 해나간다는 계획이다.

]]>
/sk-ai-summit-2024/feed/ 0
“AI 시대를 선도하는 메모리 기술 비전 총망라” SK하이닉스, ‘SEDEX 2024’ 참가 /skhynix-sedex-2024/ /skhynix-sedex-2024/#respond Wed, 23 Oct 2024 15:00:00 +0000 http://localhost:8080/skhynix-sedex-2024/ SK하이닉스가 23일부터 사흘간 서울 삼성동 코엑스에서 열리는 ‘2024 반도체대전(SEDEX)’에 참가해 인공지능(AI) 시대를 이끄는 메모리 기술력과 미래 비전을 선보였다.

올해로 26회를 맞은 SEDEX는 한국반도체산업협회가 주최하는 국내 최대 반도체 전문 전시회다. ‘AI 반도체와 최첨단 패키지 기술의 융합’이라는 기조 아래 개최된 이번 전시에는 반도체, 시스템 반도체, 장비·부품, 재료, 설비, 센서 등 반도체 생태계 전 분야의 250개 사(社)가 참석해 약 600개의 부스를 꾸렸다.

▲ SK하이닉스 전시관 전경, 관람객들이 SK하이닉스의 기술과 제품을 살펴보고 있다.

올해 SK하이닉스는 약 80평의 공간에 ‘MEMORY, THE HEART OF AI’라는 주제로 전시관을 조성, 글로벌 AI 메모리 시장을 선도하는 회사의 독보적인 기술력을 공개했다. 메인 전시 존에서는 ▲현재 시장에서 가장 각광받고 있는 초고성능 메모리 HBM*을 필두로 ▲차세대 메모리 기술로 주목받고 있는 CXL®*과 ▲차세대 지능형 메모리 PIM* ▲데이터 센터의 고성능 컴퓨팅을 구현할 서버용 솔루션과 ▲스마트 디바이스 자체에서 정보를 처리할 수 있는 온디바이스* 용 솔루션 등 AI 기술 혁신을 가속할 AI 향(向) 메모리 솔루션을 대거 선보였다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직관통전극(TSV, Through Silicon Via)으로 연결해 고대역폭을 구현한 메모리로, 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전
* CXL®(Compute Express Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 차세대 인터페이스
* PIM(Processing-In-Memory): 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* 온디바이스(On-Device) AI: 물리적으로 떨어진 서버의 연산을 거치지 않고 기기 자체에서 AI 기능을 구현하는 기술. 스마트 기기가 자체적으로 정보를 수집, 연산하기 때문에 AI 기능의 반응 속도가 빨라지고 사용자 맞춤형 AI 서비스 기능도 강화되는 장점이 있음

또한, 창립 41주년 기념 브랜드 필름과 미래 AI 비전의 허브가 될 ‘용인 반도체 클러스터’ 전시존 등을 통해 지난 40년을 디딤돌 삼아 AI 시대 글로벌 No.1 메모리 기업으로 도약하는 회사의 새로운 비전을 공유했다.

이와 함께, SK하이닉스의 자회사형 장애인 표준사업장 ‘행복모아’에서 진행하는 ‘행복만빵’ 전시존을 조성하여 회사의 사회적 가치 창출 활동을 소개했으며, 게임과 이벤트 등의 참여형 콘텐츠도 다채롭게 준비해 관람객들의 발길을 사로잡았다.

한편, 행사 둘째 날인 24일, 한국반도체산업협회 주관으로 진행된 키노트 스피치에서 ‘AI 시대의 반도체 패키징의 역할’이라는 주제로 SK하이닉스 이강욱 부사장이 연설을 펼쳤다.

뉴스룸은 SEDEX 2024 현장을 찾아 토탈 AI 메모리 프로바이더로서 SK하이닉스가 선보이는 기술 비전을 담아봤다.

HBM부터 서버용·온디바이스용 AI 솔루션까지, 글로벌 No.1 AI 메모리 기술 총망라

“AI 시대를 선도하는 메모리 기술 비전 총망라” SK하이닉스, ‘SEDEX 2024’ 참가_행사_2024_02

▲ HBM3E를 탑재한 가상 GPU가 가동되는 시뮬레이션

SK하이닉스는 전시관 중앙에 대형 LED를 설치해 가상의 AI 데이터센터를 구현했다. HBM3E를 탑재한 가상 GPU가 가동되는 시뮬레이션이 반복되며, 관람객들에게 마치 실제 데이터센터에 온 듯한 느낌을 선사했다.

LED 월 뒤편에는 SK하이닉스의 대표적인 AI 메모리 제품을 만날 수 있는 전시 공간이 마련됐다.

전시존의 중앙을 차지한 메인 제품은 AI 구동에 최적화된 현존 최고 성능의 D램 HBM이었다. 지난 9월 SK하이닉스가 세계 최초로 양산에 돌입한 HBM3E 12단[관련기사] 제품이 전시되었으며, 세계 최고의 기술력을 자랑하는 SK하이닉스의 HBM 개발사(史)가 소개됐다. 전시 중 가장 눈에 띈 것은 12단 적층 기술을 형상화한 조형물들이었다. 특히, 1970년 개발된 세계 최초의 D램과 2024년 12단 HBM3E의 용량을 쌀알의 수치로 비교해 관람객들의 흥미를 불러일으켰다.

HBM 전시존 왼쪽에는 HBM의 뒤를 이을 차세대 AI 메모리 기술로 각광받는 PIM과 CXL®을 위한 공간을 조성했다.

PIM 섹션에서는 SK하이닉스의 PIM 반도체인 AiM*과 가속기 카드인 AiMX를 소개했다. 메모리 내에서 연산 기능까지 수행할 수 있는 GDDR6-AiM과 이 칩 여러 개를 탑재해 구동하는 AiMX는 고성능, 저전력에 비용까지 절감할 수 있어 생성형 AI를 위한 최고의 솔루션으로 눈도장을 찍었다.

* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, GDDR6-AiM이 이에 포함됨

CXL®은 고성능 컴퓨팅 시스템에서 CPU/GPU, 메모리 등을 효율적으로 연결해 대용량, 초고속 연산을 지원하는 차세대 인터페이스다. CXL® 섹션에서는 DDR5와 장착해 기존 시스템 대비 최대 50%의 대역폭, 최대 100%의 용량 확장 효과를 내는 CMM(CXL® Memory Module)-DDR5와 CXL 메모리에 머신러닝 및 데이터 필터링 연산 기능까지 통합한 CMM-Ax* 샘플 제품을 전시했다.

* CMM(CXL Memory Module)-Ax: 기존 CMS(Computational Memory Solution) 2.0의 명칭을 변경. CMM은 CXL Memory Module의 약자로 제품에 CXL 기반 솔루션의 정체성을 부각했고, Accelerator와 xPU의 의미를 가져와 ‘Ax’라는 이름을 붙임

HBM 전시존 오른쪽에는 서버용 AI 솔루션과 온디바이스용 AI 솔루션 제품들을 배치했다.

서버용 솔루션으로는 고성능 컴퓨팅 시장(HPC)에서 주목받고 있는 DDR5 RDIMM(1cnm), DDR5 MCRDIMM 등의 고성능 서버용 모듈과 다양한 서버에 호환이 가능한 폼팩터(Form Factor)를 갖춘 eSSD(Enterprise SSD, 기업용 SSD) 라인을 전시했다. 이중 지난 9월 TSMC OIP에서 최초로 실물을 공개한 ‘DDR5 RDIMM(1cnm)’[관련기사]은 이전 세대 대비 11% 빨라진 속도와 9% 이상 개선된 전력 효율로 데이터센터 적용 시 비용을 최대 30%까지 절감할 수 있을 것으로 기대를 모으는 제품이다.

온디바이스용 AI 솔루션 섹션에서는 LPDDR5X* 패키지를 하나로 묶은 LPCAMM2와 차세대 모바일 낸드 솔루션 ZUFS*(Zoned UFS) 4.0 실물 제품을 만날 수 있었다. LPCAMM2는 기존 D램 모듈(SODIMM*) 2개를 LPCAMM2 1개로 대체하는 수준의 성능 효과를 보이며, 공간 절약뿐만 아니라 저전력과 고성능 특성을 구현하며, 향후 다양한 온디바이스 AI 시장의 니즈를 충족하는 제품으로 주목받고 있다. 또한, 업계 최고 성능의 ZUFS 4.0[관련기사]은 장시간 사용 환경에서 스마트폰 앱 실행 시간을 기존 제품 대비 약 45% 높인 제품으로, 모바일 기기에서 온디바이스 AI를 구현하는 데 최적화된 메모리라는 평가다.

* LPDDR5X: 스마트폰과 태블릿 등 모바일용 제품에 들어가는 D램 규격으로, 전력 소모량을 최소화하기 위해 저전압 동작 특성이 있음. 규격 명에 LP(Low Power)가 붙으며, 최신 규격은 LPDDR 7세대(5X)로 1-2-3-4-4X-5-5X 순으로 개발됨. LPDDR5T는 SK하이닉스가 최초 개발한 버전으로, 8세대 LPDDR6가 업계에 공식 출시되기 전 7세대인 LPDDR5X의 성능을 업그레이드한 제품
* ZUFS: Zoned Universal Flash Storage. 디지털카메라, 휴대전화 등 전자제품에 사용되는 플래시 메모리 제품인 UFS의 데이터 관리 효율이 향상된 제품. 이 제품은 유사한 특성의 데이터를 동일한 구역(Zone)에 저장하고 관리해 운용 시스템과 저장장치 간의 데이터 전송을 최적화함
* SODIMM(Small Outline DIMM): 데스크탑 및 노트북 등 PC에서 사용되는 메모리 모듈을 통칭하는 개념

AI 시대를 끌어갈 미래 비전, 관람객들과 적극 공유

SK하이닉스는 메인 전시존 외에 용인 반도체 클러스터와 산업용 AI 스타트업 가우스랩스를 소개하는 스페셜 전시존을 함께 선보였다.

용인 반도체 클러스터는 현재 경기도 용인 원삼면 일대에 인프라 구축 작업이 한창이다. 이번 전시에서는 AI 메모리 생태계의 허브이자 SK하이닉스의 중장기 성장 비전의 중심으로 자리매김할 용인 반도체 클러스터의 목표와 비전을 공유하여 관람객들에게 깊은 인상을 남겼다.

또한, 일반 고객들을 위한 B2C 제품인 ‘브랜드 SSD’ 전시존을 별도로 조성하여 보다 적극적인 제품 홍보에도 나섰다. 브랜드 SSD 전시존에는 영화보다 영화같은 광고로 화제가 된[관련기사] 포터블(Portable, 외장형) SSD ‘비틀(Beetle) X31’의 미주 광고 영상을 상영했으며, 비틀 X31을 비롯해 PCIe SSD P41, P51과 스틱 타입의 SSD인 Tube T31 제품 전시를 함께 진행했다.

“AI 시대를 선도하는 메모리 기술 비전 총망라” SK하이닉스, ‘SEDEX 2024’ 참가_행사_2024_21

▲ 행복만빵 전시존에서 관람객들을 위해 준비한 빵

회사의 대표적인 사회적 가치(SV) 창출 활동인 ‘행복만빵’ 사업을 소개하는 부스도 눈길을 끌었다. 행복만빵은 SK하이닉스의 장애인 표준사업장 자회사인 ‘행복모아’의 제빵 브랜드로 현재 약 190명의 발달장애인이 빵을 만드는 다양한 공정에서 맞춤형 직무를 수행하고 있다. 특히, 부스 방문 시 행복만빵에서 생산한 빵과 쿠키를 맛볼 수 있는 이벤트를 진행하여 많은 관람객들의 방문 릴레이가 이어졌다.

이 외에도 회사는 전시관 곳곳에서 다양한 이벤트와 게임을 진행하며 관람객들과 적극적으로 소통했다. 브랜드 SSD 전시존 입구에서는 ‘X31 BEETLE을 찾아라’ 게임 이벤트를 상시 진행하며, 제품 홍보와 고객 참여 두 마리 토끼를 한 번에 잡았다. 또한, SK하이닉스의 메모리 기술을 소재로 제작한 점프 게임, 핀볼 게임, 레이어 게임으로 별도의 게임 존을 조성했으며, 푸짐한 경품을 곁들인 장학 퀴즈와 뽑기 이벤트 등의 참여형 콘텐츠도 풍성하게 준비하여 관람객들의 호응을 높였다.

SK하이닉스는 “AI 시대에 SK하이닉스 메모리 반도체가 지니는 의미와 중요성을 강조하기 위해 이번 SEDEX 2024 전시를 기획했다”고 밝히며 “토탈 AI 메모리 프로바이더로서 SK하이닉스가 선보이는 다양한 제품과 뛰어난 기술력을 한자리에서 만나볼 수 있는 자리가 될 것”이라고 강조했다.

]]>
/skhynix-sedex-2024/feed/ 0
SK하이닉스, 제17회 반도체의 날 정부 포상에서 은탑산업훈장 등 수상 쾌거 /17th-semiconductor-day/ /17th-semiconductor-day/#respond Tue, 22 Oct 2024 15:00:00 +0000 http://localhost:8080/17th-semiconductor-day/ SK하이닉스_제17회_반도체의날_정부포상에서_은탑산업훈장등_수상쾌거_10_행사_사진_2024

SK하이닉스가 22일 서울 삼성동 코엑스에서 열린 ‘제17회 반도체의 날 기념 정부 포상 시상식(이하 반도체의 날 시상식)’에서 반도체 산업 발전에 기여한 공로를 인정받아 산업훈장을 비롯한 주요 상을 받았다. 이날 최준기 부사장(이천FAB 담당)은 은탑산업훈장을, 양명훈(Mobile검증), 정춘석(Leading HBM Design), 방유봉(장비통합기술) 팀장은 산업통상자원부장관 표창을, 이진희(HBM 수율개선) 팀장은 한국반도체산업협회장상을 수상했다.

이진희(HBM 수율개선), 방유봉(장비통합기술) 팀장, 최준기 부사장(이천FAB 담당), 곽노정 사장, 정춘석(Leading HBM Design), 양명훈(Mobile검증) 팀장

▲ (왼쪽부터) 이진희(HBM 수율개선), 방유봉(장비통합기술) 팀장, 최준기 부사장(이천FAB 담당), 곽노정 사장, 정춘석(Leading HBM Design), 양명훈(Mobile검증) 팀장

이 시상식은 산업통상자원부가 반도체 산업 발전에 기여한 산·학·연 종사자들을 포상하는 행사로, 반도체인들의 노고를 치하하고 격려하기 위해 매년 반도체의 날(10월 넷째 주 목요일)을 즈음해 개최된다.

올해 시상식에서는 최준기 부사장이 국가 산업 발전을 돕고, 회사 수익성을 높인 공로를 인정받아 은탑산업훈장을 수상했다. 최 부사장의 주요 성과로는 ▲HBM*/HDM* 생산 비중 확대를 통한 D램 경쟁력 확보 ▲WPD* 관리를 통한 장비 효율 향상 및 웨이퍼 증산 체계 구축 등이 꼽힌다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전
* HDM(High Density Memory): 대용량 데이터 저장을 목적으로 서버, 데이터 센터 등에서 주로 활용하는 고밀도 D램
* WPD(Wafer Per Day): 하루 동안 제조 공정에서 처리할 수 있는 웨이퍼의 수

산업부장관 표창을 받은 3명의 수상자 중 방유봉 팀장은 외산 부품인 ALN 히터(Heater)를 국내 협력사와 공동 개발한 성과를 냈다. 10여 년에 걸쳐 개발된 이 제품을 통해 반도체 장비·부품 국산화에 기여했다는 평가를 받았다.

또, 정춘석 팀장은 2013년부터 HBM 개발을 이끌며 시장을 창출하고 성장시킨 성과를 거뒀다. 이와 함께 그는 GDDR6-AiM(PIM)을 비롯해 CXL 메모리 기술 개발을 주도하는 등 AI 메모리 시장에서 국가 경쟁력을 높였다는 평가를 받았다.

그리고 양명훈 팀장은 낸드플래시(NAND Flash) 및 메모리 솔루션의 수출 확대에 앞장섰다. 특히 그는 스마트폰용 MCP* 위주의 사업을 플래그십 스마트폰용 UFS* 4.0 중심으로 재편하는 성과를 얻었다.

* MCP(Multi Chip Package): 여러 개의 칩을 적층해 하나로 패키징한 제품
* UFS(Universal Flash Storage): 모바일 저장장치 규격 중 하나로, 기존 eMMC(embedded Multi Media Card)와 달리 동시 읽기·쓰기가 가능함. PC 저장장치(SSD)의 빠른 속도와 모바일 저장장치(eMMC)의 저전력 특징을 모두 갖춘 규격으로, 4.0 버전까지 개발됨

반도체산업협회장상을 수상한 이진희 팀장의 주요 공적은 HBM 핵심 생산장비 국산화 및 동반성장이다. 중소기업의 HBM 생산기술 경쟁력을 키운 공로로, 이 팀장은 상생 분야에서의 유공을 인정받았다.

이날 최 부사장을 비롯한 SK하이닉스 수상자들은 “모두의 땀과 노력이 있었기에 가능했던 결과”라며 원팀으로 함께한 구성원들과 협력사 관계자들에게 감사 인사를 전했다.

최준기 부사장 “HBM 생산 안정화로 1등 경쟁력 확보… 전 구성원 합심한 원팀 마인드 빛나”

은탑산업훈장은 국가 경제 발전에 기여한 인물 또는 기관에 주어지는 상으로, 최고 수준의 공로를 인정받는 훈장이다. SK하이닉스 뉴스룸은 은탑산업훈장의 쾌거를 이룬 최준기 부사장을 만나 소감을 들어봤다.

SK하이닉스_제17회_반도체의날_정부포상에서_은탑산업훈장등_수상쾌거_11_행사_사진_2024

▲ 제17회 반도체의 날 기념 정부 포상 시상식에서 은탑산업훈장을 받은 최준기 부사장(이천FAB 담당)이 소감을 전하고 있다.

최 부사장은 30여 년 경력의 반도체 엔지니어 출신으로, 현재 이천 캠퍼스에서 제조 기술 개발 및 생산성 향상을 주도하고 있다. 그는 지난 2015년 ‘대한민국 엔지니어상’도 수상한 바 있다.  최 부사장은 “은탑산업훈장을 비롯한 모든 성과는 전 구성원이 원팀으로 합심한 결과”라며 구성원들에게 공을 돌렸다.

“제가 대표로 큰 상을 받았지만, 이는 동료 구성원과 선배님들이 아낌없이 지원하고 협력해 준 결과물이라고 생각합니다. 함께한 모든 분들과 기쁨을 나누겠습니다.”

HBM 생산 안정화 공로를 인정받은 최 부사장은 “그동안 HBM 생산 기반을 단단하게 잘 구축해 놓은 덕분에 회사가 AI 시대에 적기 대응하고, 1등 경쟁력을 확보할 수 있었다”고 말했다. 시장 리더십을 지키기 위해 그는 양산 체계 강화에 더욱 힘쓴다는 계획이다.

“국제 정세의 변동성과 후발 업체의 추격이 매서운 상황입니다. 이제 우리는 기술 격차 유지, 신제품 개발 및 양산, TTM* 단축 등 다양한 과제를 고민하며 발전해야 할 시기를 맞았습니다. 저는 이러한 과제를 해결할 수 있는 양산 체계를 구축하여 AI 메모리 시장에서 1위의 지위를 지키는 데 힘을 보탤 것입니다.”

* TTM(Time To Market): 제품이 구상되고 시장에 나오기까지 걸리는 시간

SK하이닉스_제17회_반도체의날_정부포상에서_은탑산업훈장등_수상쾌거_12_행사_사진_2024

마지막으로 최 부사장은 미래 시장을 향한 포부도 밝혔다

“고도화된 AI 시대에서도 SK하이닉스가 시장 지배력을 갖출 수 있도록 탄탄한 업무 체계를 구축할 것입니다. 동시에 구성원 모두가 성장할 수 있는 업무 환경을 조성해, 회사와 구성원이 함께 발전하며 지속적인 경쟁력을 확보할 수 있도록 최선의 노력을 다하겠습니다.”

]]>
/17th-semiconductor-day/feed/ 0
‘OCP 글로벌 서밋 2024’에서 만난 SK하이닉스의 차세대 AI 메모리 솔루션 /2024-ocp-global-summit-04/ /2024-ocp-global-summit-04/#respond Wed, 16 Oct 2024 21:00:00 +0000 http://localhost:8080/2024-ocp-global-summit-04/ SK하이닉스가 OCP 서밋2024에서 라이브 데모를 시연한 GDDR6-AiM 기반 가속기 카드 AiMX

]]>
/2024-ocp-global-summit-04/feed/ 0
‘OCP 글로벌 서밋 2024’에서 만난 SK하이닉스의 차세대 AI 메모리 솔루션 /2024-ocp-global-summit/ /2024-ocp-global-summit/#respond Wed, 16 Oct 2024 21:00:00 +0000 http://localhost:8080/2024-ocp-global-summit/ OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_01_행사_사진_2024_RE

SK하이닉스가 지난 15일부터 미국 캘리포니아주 새너제이(San Jose)에서 개막한 ‘OCP 글로벌 서밋(OCP Global Summit 2024, 이하 OCP 서밋)’에 참가해 미래 반도체 시장 리더십을 이어갈 AI 메모리 반도체 기술과 제품을 선보였다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_02_행사_사진_2024

▲ OCP 서밋에 설치된 SK하이닉스 부스 모습

OCP 서밋은 전 세계 최대 규모의 개방형 데이터센터 기술 협력 협회인 OCP(Open Compute Project)가 주최하는 글로벌 행사로 미래 데이터센터 환경을 구현하기 위한 AI 기술 중심의 반도체 최신 기술과 연구 성과, 기술력 등을 공유하는 자리다. 올해의 주제는 ‘From Ideas To Impact(비전을 현실로 전환하다)’로, 이론적 논의를 넘어 구체적인 솔루션으로 구현하는 업계의 혁신 기술과 노력을 다뤘다.

AI 시대를 선도하는 토탈 AI 메모리 솔루션 제시

SK하이닉스는 2016년 첫 OCP 서밋 참여를 시작으로 매년 혁신 기술과 비전을 제시해 왔다. 특히 올해는 최고 등급인 다이아몬드 회원으로 참여해 ‘MEMORY, THE POWER OF AI’라는 슬로건으로 전시를 열어 SK하이닉스의 선도적인 기술력을 확인할 수 있는 다양한 AI 메모리 제품을 선보였다.

회사는 ▲HBM 5세대 최신 제품이자 현존 최고 성능을 구현하는 HBM3E*를 비롯해 ▲CXL* 기반 연산 기능을 통합한 차세대 메모리 솔루션 ▲10나노급 6세대(1c) 공정* 기반의 DDR5 RDIMM ▲고용량 저장장치 eSSD* 등 다양한 AI 메모리를 전시하며 눈길을 끌었다.

* HBM(High Bandwidth Memory): 여러 개의 D램을 수직으로 연결해 기존 D램보다 데이터 처리 속도를 혁신적으로 끌어올린 고부가가치, 고성능 제품. HBM은 1세대(HBM)-2세대(HBM2)-3세대(HBM2E)-4세대(HBM3)-5세대(HBM3E) 순으로 개발됨. HBM3E는 HBM3의 확장(Extended) 버전. 기존 HBM3E의 최대 용량은 3GB D램 단품 칩 8개를 수직 적층한 24GB였음
* CXL(Compute eXpress Link): 고성능 컴퓨팅 시스템을 효율적으로 활용하기 위한 PCle 기반 차세대 인터페이스. 기존 D램 제품과 함께 서버 시스템의 메모리 대역폭을 늘려 성능을 향상하고, 쉽게 메모리 용량을 확대할 수 있는 차세대 메모리 솔루션
* 10나노급 D램 공정 기술은 1x-1y-1z-1a-1b 순으로 개발돼 1c는 6세대
* eSSD(Enterprise Solid State Drive): 기업용 SSD, 주로 서버나 데이터센터에 탑재됨

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_07_행사_사진_2024

▲ SK하이닉스가 OCP 서밋에서 전시한 HBM3E와 엔비디아의 H200/GB200

이중 HBM3E 12단은 SK하이닉스가 지난 9월 세계 최초로 양산하기 시작한 현존 최고 성능과 용량을 갖춘 제품[관련기사]으로 엔비디아(NVIDIA)의 신형 ‘H200 텐서 코어 GPU(Tensor Core GPU)’ 및 ‘GB200 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)’과 함께 전시됐다. HBM3E 12단은 D램 칩을 기존보다 40% 얇게 만들어 기존 8단 제품과 동일한 두께로 12단 적층에 성공해 최대 36GB 용량을 구현했으며 데이터 처리 속도는 9.6Gbps로 높였다. 또 SK하이닉스의 핵심 기술인 어드밴스드 MR-MUF*공정을 적용해 발열 성능을 10% 향상시키며 속도, 용량, 안정성 등 모든 부문에서 세계 최고 수준이라는 평가를 받고 있다.

* 어드밴스드(Advanced) MR-MUF: 기존 칩 두께 대비 40% 얇은 칩을 휘어짐 없이 적층할 수 있는 칩 제어 기술(Warpage Control)이 적용되었으며, 신규 보호재를 통해 방열 특성까지 향상된 차세대 MR-MUF 기술

또한 SK하이닉스는 CXL 기반 연산 기능을 통합한 차세대 메모리 솔루션 ▲CMM-Ax* ▲CMM-DDR5/HMSDK* ▲나이아가라(Niagara) 2.0과 함께 ▲CSD*를 선보였다.

CMM-Ax는 기존 CMS* 2.0의 명칭을 변경한 것으로 이번 전시에서 새로운 이름과 함께 소개됐다. CMM-Ax는 고용량 메모리를 확장할 수 있는 CXL의 장점에 머신러닝과 데이터 필터링 연산 기능을 함께 제공하며 차세대 서버 플랫폼에 탑재되어 시스템의 성능과 에너지 효율 향상에 기여할 수 있다. 회사는 CMM-Ax를 탑재한 서버를 통해 멀티모달* 라이브 데모를 선보이며 차세대 연산 메모리 성능을 입증했다.

이에 더해, CMM-DDR5와 이를 지원하는 소프트웨어인 HMSDK, 나이아가라(Niagara) 2.0 제품을 시연하는 자리도 마련했다. HMSDK는 CMM-DDR5가 장착된 시스템의 대역폭과 용량을 확장해 주는 솔루션으로 D램 모듈과 CMM-DDR5 간의 효율적인 교차 배열을 통해 대역폭을 넓히고, 데이터 사용 빈도에 따라 적합한 메모리 장치로 데이터를 재배치해 시스템 성능을 개선해 준다[관련기사].

나이아가라(Niagara)는 CXL 풀드 메모리(Pooled Memory)를 위한 하드웨어∙소프트웨어 통합 솔루션으로, 대용량의 메모리 풀을 여러 호스트(CPU, GPU 등)가 최적의 상태로 나눠 쓰도록 해 유휴 메모리를 최소화함으로써 전체 시스템의 비용을 줄일 수 있는 것이 특징이다. 또한 데이터 사용 빈도와 접근 패턴에 따라 데이터를 재배치해 시스템의 성능을 대폭 개선할 수 있다[관련기사].

* CMM(CXL Memory Module)-Ax: CMM은 CXL Memory Module의 약자로 제품에 CXL 기반 솔루션의 정체성을 부각했고, Accelerator와 xPU의 의미를 가져와 ‘Ax’라는 이름을 붙임
* HMSDK(Heterogeneous Memory S/W Development Kit): SK하이닉스 고유의 이종(異種) 메모리 소프트웨어 개발 도구. 효과적인 메모리 제어로 CXL 메모리를 포함한 이종 메모리 시스템의 성능을 향상시킴
* CSD(Computational Storage Drive): 데이터를 직접 연산하는 저장장치
* CMS(Computational Memory Solution): 고용량 메모리를 확장할 수 있는 CXL 메모리에 빅데이터 분석이나 AI와 같은 대용량 데이터가 필요한 응용 프로그램에서 주로 사용되는 연산 기능이 포함된 메모리 솔루션
* 멀티모달(Multi Modal): 텍스트, 사진 음성, 동영상 등 여러 복합 정보를 이해할 수 있는 AI 서비스/p>

데이터센터의 대규모 언어 모델(Large Language Model, 이하 LLM) 서비스는 여러 사용자의 요청 사항을 동시에 처리하는 방식으로 GPU 효율을 개선하고 있으나, 생성 토큰 길이가 증가함에 따라 GPU 효율이 낮은 어텐션 레이어*의 연산량이 커지는 문제가 있다. 이에 회사는 GDDR6-AiM* 기반 가속기 카드인 AiMX*로 최신 모델인 Llama3 70B*의 어텐션 레이어를 가속하는 라이브 데모를 시연했다. AiMX를 탑재해 대량의 데이터를 다루면서도 최신 가속기 대비 고성능, 저전력 등 뛰어난 성능을 보여줄 수 있다는 것을 확인시켰다[관련기사].

* 어텐션 레이어(Attention Layer): 딥러닝 모델, 특히 자연어 처리 분야에서 입력 데이터의 각 부분에 가중치를 부여하여 관련 정보에 더 집중하게 하는 메커니즘
* AiM(Accelerator-in-Memory): SK하이닉스의 PIM 반도체 제품명, PIM은 메모리 반도체에 연산 기능을 더해 인공지능(AI)과 빅데이터 처리 분야에서 데이터 이동 정체 문제를 풀 수 있는 차세대 기술
* AiMX(AiM based Accelerator): GDDR6-AiM 칩을 사용해 대규모 언어 모델(Large Language Model, 대량의 텍스트 데이터로 학습하는 인공지능으로 챗GPT가 이에 해당)에 특화된 SK하이닉스의 가속기 카드 제품
* Llama3(Large Language Model Meta AI): 메타의 최신 LLM 모델로 700억 개의 매개변수를 가짐

이와 함께 슈퍼마이크로(Supermicro)와의 협업으로 고성능 컴퓨팅 시장에서 주목받는 ▲DDR5 RDIMM ▲MCRDIMM*과 ▲E3.S eSSD PS1010* ▲M.2 2280 eSSD PE9010을 함께 전시했다. 이 제품들은 데이터센터 전력 소비량이 늘어나는 가운데, 이전 세대 대비 속도와 전력 효율을 크게 향상시켜 AI용 서버 시장에 핵심 솔루션이 될 것으로 기대를 모은다.

* MCRDIMM(Multiplexer Combined Ranks Dual In-line Memory Module): 여러 개의 D램이 기판에 결합된 모듈 제품으로, 모듈의 기본 정보처리 동작 단위인 랭크(Rank) 2개가 동시 작동되어 속도가 향상된 제품

* PS1010: 초고성능-고용량 데이터센터/서버향 SSD로 PCIe 5세대 E3.S & U.2/3(폼팩터 규격) 기반 제품

이 밖에도 SK하이닉스는 다양한 서버에 호환이 가능한 폼팩터(Form Factor)를 갖춘 eSSD 제품군을 선보이며 현장의 큰 관심을 받았다. 이중 PS1010과 PS1030은 업계 최고의 성능의 5세대 PCle* 기반 eSSD 제품으로 이전 세대 대비 전송 속도가 빠르고 전력 소모가 적은 고효율 AI 메모리다. 대량의 데이터를 처리하는 인공지능과 데이터센터 등에 최적화된 제품으로 생성형 AI 시대 핵심 반도체로 떠오르고 있다.

* PCle(Peripheral Component Interconnect Express): 직렬 구조의 고속 입출력 인터페이스로 디지털 장치의 메인보드에서 사용

세션 발표를 통해 글로벌 No.1 AI 메모리 프로바이더 입증

SK하이닉스는 이번 OCP 서밋에서 총 일곱 번의 세션 발표와 패널 참여를 통해 회사의 AI 메모리 기술력과 비전을 공유했다. 특히, AI 시대의 개화와 함께 주목받고 있는 HBM과 CXL을 중심으로 이야기를 풀어내며 혁신의 경계를 넓히기 위해 반도체 업계의 협력을 제안했다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_20_행사_사진_2024

▲ 회사의 CXL 기반 메모리 솔루션을 발표 중인 주영표 부사장(Software Solution 담당)

먼저, ‘Pioneering the AI Enlightenment : Future Memory Solution R&D in SK Hynix(AI 시대를 여는 선구자 : SK하이닉스의 미래 메모리 솔루션 R&D)’를 주제로 발표한 주영표 부사장(Software Solution 담당)은 CMM-DDR5를 비롯한 CXL 기반 메모리 솔루션을 소개하며 AI 메모리 경쟁력을 강화하는 SK하이닉스의 강력한 의지를 보여줬다.

최정민 TL(Composable System)은 ‘CXL 메모리 풀링* 및 공유 기능, 데이터 사용 빈도와 패턴 분석을 통한 핫-콜드 데이터* 검출 및 이에 따른 시스템 이점과 다양한 활용 사례’를 다뤘고, 김홍규 TL(System SW)은 회사가 자체 개발한 CXL 최적화 소프트웨어인 HMSDK를 소개했다.

* 메모리 풀링(Memory Pooling): 대용량 메모리 풀(Pool)을 만들고 다수의 서버가 메모리 풀에서 필요한 만큼 메모리를 할당받아 사용할 수 있는 기술
* 핫-콜드 데이터(Hot-Cold Data): ‘Hot Data’는 매우 빈번하게 액세스, 업데이트되는 데이터를 가리키며, ‘Cold Data’는 자주 또는 전혀 액세스하지 않는 비활성 데이터를 의미

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_22_행사_사진_2024

▲ HBM4 도입과 업계에 주는 시사점에 대해 발표하고 있는 김연수 TL(DRAM TP)

이어서 김연수 TL(DRAM TP)은 ‘The Next Chapter of HBM(다가올 HBM의 미래)’을 주제로 HBM 시장의 성장 배경과 최신 HBM3E 제품을 소개하고, 지속적으로 늘어나는 커스텀(Custom) 제품 요구에 적기 대응하기 위한 전략을 발표했다.

OCP글로벌서밋2024에서_만난_SK하이닉스의_차세대_AI메모리솔루션_23_행사_사진_2024

▲ 회사의 AiM 제품 강점을 설명 중인 임의철 부사장(Solution AT 담당)

생활 전반에 걸쳐 혁신적인 변화를 예고하는 생성형 AI를 위한 솔루션을 주제로 한 발표도 이어졌다. 임의철 부사장(Solution AT 담당)은 데이터센터부터 엣지 디바이스까지 LLM 서비스의 핵심 솔루션이 된 AiM 기술을 강조하며, 회사의 AiM 제품 소개와 미래 비전을 공유했다.

김종률 팀장(AI System Infra)과 Kevin Tang TL(AI System Infra)은 LLM 학습 시스템 장애로 인한 자원 및 비용 낭비를 줄이기 위한 기술인 체크포인팅*을 효과적으로 지원할 수 있는 차세대 SSD에 대한 연구 결과를 발표했다.

* 체크포인팅(Checkpointing): 학습 과정 중 특정 시점의 모델 파라미터와 관련 주요 데이터를 저장하여 시스템 장애 발생 시 저장된 특정 시점에서 학습을 재시작할 수 있도록 지원하는 기술

▲ 메모리 인접 연산 기술의 비전에 대해 발표하고 있는 김호식 부사장(SOLAB 담당)

김호식 부사장(SOLAB 담당)은 ‘Opportunities, Challenges, and Road Ahead in Data Centric Computing(데이터 센트릭 컴퓨팅의 기회, 도전과 방향성)’을 주제로 한 패널 세션에 참가했다. 이 자리에서 메모리와 프로세서 간의 데이터 병목 현상을 해결하기 위한 메모리 인접 연산* 기술의 비전에 관해 설명했다. 또, 이를 실제 시스템에 적용하기 위해 해결해야 하는 HW와 SW 레벨의 다양한 이슈와 방법에 대해 토론을 진행했다.

* 메모리 인접 연산(Near Memory Processing): 폰노이만 아키텍처의 한계인 메모리와 프로세서 간의 병목 이슈를 해결하기 위한 목적으로, 메모리 내부에서 특정 연산을 처리함으로써 프로세서의 이용 효율을 높이고 메모리와 프로세서 간의 데이터 이동량을 줄여 시스템 성능 및 TCO 개선을 가능하게 하는 차세대 메모리 솔루션 기술

기술 파트너들과 공동으로 발표한 김명서 TL(AI Open Innovation)은 우버(Uber) 데이터센터의 쿠버네티스 클라우드* 환경에서의 문제점을 해결하기 위해 회사의 CXL 풀드 메모리 프로토타입과 잭래빗 랩스(Jackrabbit Labs)의 오픈소스 소프트웨어인 클라우드 오케스트레이션*을 활용한 성과를 소개했다. 이는 쿠버네티스 클라우드 환경에서 발생하는 스트랜디드 메모리* 이슈를 해결할 수 있도록 개발됐다. 앞으로도 다양한 빅테크 기술 파트너들과 협력해 생태계를 구축하고, 미래 시장에서의 기술 리더십을 강화할 것이라고 전했다.

* 쿠버네티스 클라우드(Kubernetes Cloud): 독립된 환경 및 애플리케이션을 하나로 통합하여 실행할 수 있도록 컨테이너화된 애플리케이션을 실행하기 위한 일련의 노드 머신
* 오케스트레이션(Orchestration): 컴퓨터 시스템과 서비스, 애플리케이션 설정을 자동화하여 컴퓨팅 자원을 관리하고 조정하는 것으로 여러 개의 작업을 함께 연결하여 크기가 큰 워크플로우나 프로세스를 실행하는 방식을 취함
* 스트랜디드 메모리(Stranded Memory): 메모리가 사용되지 않고 남는 이슈

SK하이닉스는 “이번 OCP 서밋을 통해 AI 중심으로 급격히 변하는 시장 환경에서 ‘글로벌 No.1 AI 메모리 프로바이더(Global No.1 AI Memory Provider)’로 성장하는 SK하이닉스의 혁신 기술을 선보일 수 있었다”라며 “앞으로도 장기적인 관점에서 기술력을 확보하고 고객 및 다양한 파트너사와의 협업을 통해 AI 시장의 핵심 플레이어가 될 것”이라고 전했다.

]]>
/2024-ocp-global-summit/feed/ 0