[N2 뷰] 中 딥시크가 쏘아올린 '저비용 AI', 국내 반도체업계에 '양날의 칼' 이유는
전소영 기자 입력 : 2025.02.07 05:00 ㅣ 수정 : 2025.02.07 05:00
딥시크 포문 연 저비용 AI 모델 등장으로 치열한 AI 패권 경쟁 불붙여 저비용 AI 확대되면 고성능 HBM 수요 줄어 HBM 전체 사업에 악영향 HBM 수요 감소 못지않게 중국의 HBM 개발도 한국에 '큰 위협' 저비용 AI 등장으로 NPU 개발하는 한국 팹리스에 '기회'
중국 AI 스타트업 딥시크(DeepSeek)가 공개한 오픈소스 버전 추론 모델 ‘DeepSeek-R1(이하 R1)’ [사진 = 연합뉴스]
[뉴스투데이=전소영 기자] 샘 올트먼 미국 오픈AI CEO(최고경영자)가 지난 4일 오전 서울 중구 더 플라자호텔에서 처음 개최하는 비공개 워크숍 '빌더 랩(Builder Lab)'에 참석하기 위해 한국을 방문했다.
올트먼 CEO는 이날 국내 주요 기업 인사들과 연쇄 회동을 가졌는데 이재용 삼성전자 회장과의 만남이 많은 관심을 받았다.
올트먼 CEO는 이 회장을 만나기 위해 강남구 삼성전자 서초사옥으로 향했는데 여기에 손정의 소프트뱅크그룹 회장도 급거 방한해 이들과 합류하는 파격 행보를 보였다.
이번 글로벌 거물급 기업의 3자 회동은 중국의 AI(인공지능) 스타트업 '딥시크(DeepSeek) 쇼크' 사태를 의식한 올트먼 CEO의 '한·미·일 AI 동맹' 구축을 위한 큰 그림으로 풀이되고 있다.
최근 딥시크가 공개한 오픈소스 버전 추론 모델 ‘딥시크-R1(이하 R1)’은 미국 빅테크 기업들이 주류를 이룬 AI 생태계에 큰 파장을 일으켰다.
딥시크에 따르면 R1은 오픈AI가 지난해 9월 출시한 최신 대형언어모델(LLM) ‘챗GPT o1-프리뷰(OpenAI o1-preview)’와 견줄만한 성능을 갖췄다.
특히 주목할만한 점은 R1에 탑재된 GPU(그래픽 처리장치)다.
오픈AI를 비롯한 미국 주요 AI 모델은 엔비디아 ‘H100’ 등 첨단 AI반도체(AI accelerator, AI가속기 또는 AI칩)을 탑재한다. 반면 R10는 미국의 고성능 반도체 수출 규제로 엔비디아가 H100 사양을 낮춰 출시한 ‘H800’이 적용됐다. 즉 R10은 적은 투자금 대비 높은 성능을 보이는 AI 모델인 셈이다.
딥시크가 발표한 R1 개발 비용은 시간당 2달러(약 2890원), H800을 총 2개월간 대여하는 기간을 반영하면 557만6000달러(약 81억원)으로 추산했다. 이는 오픈AI의 챗GPT 투자 비용 1억달러(약 1448억원)의 5.6% 수준이다.
중국 딥시크의 R1과 미국 오픈AI의 챗GPT [사진 = 연합뉴스]
이런 가운데 지난 5일 딥시크 R1의 '개인정보 유출' 우려가 불거지면서 국내 외교, 통상 분야 정부 기관과 기업이 딥시크 접속을 차단하는 해프닝이 빚어졌다.
하지만 이 같은 논란과 별개로 딥시크가 포문을 연 '저비용 AI' 모델은 치열한 AI 패권 경쟁을 야기할 것으로 예상된다.
그리고 이 같은 AI 산업 패러다임 변화는 한국 반도체업계 변수로 평가받고 있다.
현재 AI반도체에서 HBM(고(高)대역폭메모리)은 없어서는 안 될 핵심 부품이다. 특히 AI 산업이 급속히 발전하면서 HBM 수요도 계속 늘어나는 추세다.
HBM 시장은 국내 반도체 기업 SK하이닉스와 삼성전자가 나란히 1·2위를 달리고 있다. 두 회사는 HBM의 유망성을 고려해 레거시(범용) D램에서 HBM 중심으로 사업 포트폴리오를 바꾸고 있다.
그런데 일각에서는 저비용 AI 모델이 확대되면 HBM 판매에도 부정적 영향을 미칠 수 있다는 우려의 목소리가 나온다.
차세대 HBM이 계속 출시되고 있지만 굳이 고성능 HBM이 필요하지 않아 수익성을 끌어올리기 쉽지 않다는 얘기다.
이에 따라 미국 반도체업체 엔비디아의 값비싼 AI반도체도 불필요해 질 수 있다. 엔비디아는 HBM 시장의 최대 고객사이기 때문에 엔비디아 AI반도체 수요가 줄면 삼성전자나 SK하이닉스에도 영향을 미칠 수 있다는 해석이 나온다.
이에 대해 전문가는 HBM의 수요 하락이 아닌 중국의 HBM 개발을 경계해야 한다고 지적했다.
한국반도체디스플레이기술학회 회장인 박재근 한양대 융합전자공학부 교수는 <뉴스투데이>에 "딥시크를 통해 적은 비용으로 고사양 모델 개발이 가능해 AI 소프트웨어 산업에서 HBM 수요가 더 늘어날 것"이라며 "또한 저비용 AI 모델이 등장했지만 AI 기술 발전을 위해 HBM 성능을 강화해야 한다"고 설명했다.
박재근 교수는 "이에 따라 저비용 AI 모델 등장이 HBM 시장에 부정적이지 않지만 중국에서 HBM 기술력을 강화하면 얘기가 달라진다”며 “중국의 창신메모리테크놀로지(CXMT)가 최신 5세대는 아니지만 2세대 HBM2E까지 만들고 있어 HBM 기술력을 빠르게 추격하는 모습"이라고 지적했다.
한편에는 국내 팹리스(반도체 설계) 기업이 혜택을 누릴 것이라는 기대감도 나온다.
AI 모델 개발업체들은 학습·추론 성능을 이끌어 내기 위해 HBM과 같은 고사양 메모리가 필요하다.
하지만 개발사로부터 비용을 지불하고 학습을 마친 AI 모델의 API(애플리케이션 프로그래밍 인터스페이스)를 공급받는 AI 서비스 기업은 추론에 최적화된 NPU(신경망처리장치)가 전력소비나 생산비용 등에서 효율성이 크다.
이에 따라 현재 국내에서 NPU를 개발하는 퓨리오사AI·리벨리온·사피온 등 팹리스에 저비용 AI 등장은 기회가 될 수 있다는 분석이다.
업계 관계자는 <뉴스투데이>에 "장기적인 관점에서 볼 때 저가형 AI가 확대되면 NPU를 개발하는 국내 팹리스와의 협력도 커질 것"이라며 "그러나 저비용 AI는 이제 막 시작 단계이며 딥시크 모델도 좀 더 지켜보고 검증이 필요한 상황"이라고 진단했다.