보내는 기사
딥시크가 기름 부은 AI 패권 경쟁..."1990년대 D램 치킨 게임 재현"
이미 가입된 회원입니다.
만 14세 이상만 회원으로 가입하실 수 있습니다.
중국 인공지능(AI) 스타트업 '딥시크'가 내놓은 추론 특화 AI 모델 '딥시크-R1'이 글로벌 시장을 강타하면서 국내 정보기술(IT) 업계가 바뀐 상황을 해석하고 대응책을 짜느라 바빠졌다. AI 인프라, 그중에서도 AI 반도체 분야의 선두 그룹에 섰던 SK하이닉스에는 당장은 좋지 않은 신호라는 게 전문가들의 전망이다. 반면 AI 메모리 분야에서 고전한 삼성전자에는 뜻밖의 기회가 열릴 것으로 보고 있다. 이현익 과학기술정책연구원 부연구위원은 30일 "딥시크-R1이 보도된 대로 빅테크 AI 투자비의 10분의 1로 비슷한 성능을 내고 그로 인해 AI 메모리 가격이 하락한다면 (업체들끼리 저가 출혈 경쟁을 편) 1990년대 D램 치킨 게임이 재현될 수도 있다"고 말했다.
2023년 5월 설립한 딥시크가 돌풍을 일으킨 건 20일 추론모델 R1이 오픈소스로 시장에 풀리면서다. 오픈소스는 전 세계 개발자들이 미리 짜놓은 코드를 가져다가 각자의 프로그램 개발에 자유롭게 적용할 수 있어 개발 비용, 시간을 크게 줄일 수 있다. 실리콘밸리 빅테크가 개발한 최첨단 AI 모델은 대부분 폐쇄형이기 때문에 챗GPT를 개발한 오픈AI도 초기엔 오픈소스에 기반한 개방형 전략을 추진했지만 이후 폐쇄형으로 전략을 바꿨다.
오픈소스 AI 모델이 이전에 없었던 건 아니다. 사회관계망서비스(SNS) 페이스북을 운영하는 메타는 거대언어모델(LLM) 라마를 오픈소스로 공개해왔고 '라마 4'를 개발 중이다. 그럼에도 딥시크 R1이 파란을 일으킨 건 중국 스타트업이 빅테크와의 기술, 인프라 격차를 줄이기 위해 AI 학습 방식을 기존과는 근본적으로 바꿨기 때문이다.
R1이 탄생하기 전 두 가지 LLM 모델이 있었다. 그중 하나는 2024년 12월 발표된 딥시크-V3로 정보를 학습, 처리할 때 '전문가 기반 혼합(Mixture-of-Experts·MoE)' 기술을 채택했다. 기존 빅테크의 LLM에서는 데이터(토큰) 처리에 많은 매개 변수가 활성화되지만 딥시크의 LLM에서는 연산이면 연산, 번역이면 번역, 분야를 나눠 토큰 처리에 꼭 필요한 일부 매개 변수만 활성화되도록 했다. 그 결과 6,710억 변수 중 340억~370억 개만 활성화됐고 그만큼 효율성이 높다.
V3모델을 바탕으로 학습시킨 R1 제로는 일반적으로 쓰이는 지도 학습 없이 강화 학습을 통해 AI를 공부시켰다. 지도 학습의 대표적 사례는 2016년 이세돌 9단과의 바둑 대국에서 이긴 AI 알파고로 기존 수만 장의 기보를 공부하게 해 다음 수를 추론하도록 훈련됐다. 이후 개발된 알파고 제로는 상황 설명 없이 AI가 바둑을 두게 하고 이기면 높은 보상을 줘서 스스로 공부에 필요한 데이터를 탐구하도록 했더니 뛰어난 성능을 보였다. R1 제로는 알파고 제로와 비슷하게 답변이 낸 성과에 따라 보상을 줘 학습하는 모델로 인간의 개입을 최소화해 데이터 없이도 스스로 지능을 키울 수 있는 가능성을 보여줬다. 데이터가 필요 없으니 비용도 덜 들어간다.
딥시크 R1이 가져올 파장은 1957년 당시 소련이 세계 최초의 인공위성 스푸트니크 1호 발사에 성공해 미국인들에게 큰 충격을 준 것과 비견된다는 평가가 나온다. 펫 겔싱어 전 인텔 최고경영자(CEO)는 SNS에 "컴퓨터 시장은 '기체의 법칙'을 따른다"며 "비용이 극적으로 낮으면 시장이 확장한다"고 적었다. 그는 이어 "(딥시크가) AI의 활용을 더 폭넓게 할 것"이라고 전망했다.
국내 업계의 희비는 갈릴 것으로 예상된다. 먼저 AI 생태계를 만드는 하드웨어(반도체)의 경우 AI 반도체 주도권을 쥐었던 SK하이닉스에는 단기 악재로 작용할 것으로 보인다. SK하이닉스의 거래처 엔비디아의 주가가 이를 잘 보여주는데 모건스탠리의 조지프 무어는 "딥시크의 AI 혁신은 미국의 추가적 수출 통제로 이어지거나 (기업들의) 비용 지출 열기를 낮출 수 있다"고 말했다. 다만 올해 고대역폭메모리(HBM) 생산 물량은 100% 계약이 완료된 데다 선금 일부를 미리 받아 상반기 2026년 생산 물량 계약이 변수가 될 것으로 보인다.
삼성전자에는 기회가 열릴 것으로 기대된다. 저렴한 HBM으로 AI 개발이 가능하면 싼값에 많은 물량을 한꺼번에 만드는 능력이 중요하기 때문이다. 다만 미국의 대(對)중국 반도체 수출 규제가 변수가 될 수 있다. 딥시크는 엔비디아의 중국향 AI반도체 H800을 써서 V3모델을 개발했다고 밝혔다. 이현익 부연구위원은 "국내 AI 개발업체는 저렴한 가격으로 LLM 개발이 가능해져 호재로 작용할 것"이라고 예상했다. 애플, 메타 등 AI 개발 소프트웨어 업체의 주가가 상승한 것도 마찬가지 이유다.
다만 딥시크가 발표한 대로 강화 학습이 진짜 AI 개발 비용을 획기적으로 줄이느냐에 대해서는 전문가들 사이에 의견이 엇갈린다. 엔비디아 개발자인 진 판은 SNS에 "강화 학습이 컴퓨팅을 덜 사용한다고 생각하는 사람은 강화 학습을 전혀 모르는 사람"이라며 "지도 학습은 사람이 데이터를 생성하고 기계가 학습하고 강화 학습은 기계가 데이터를 생성하고 기계가 학습한다"고 지적했다. 기계가 스스로 학습할 데이터를 만들 때 컴퓨팅 시스템이 필요한 만큼 획기적 비용 절감이 불가능할 것이라는 말이다. 딥시크가 밝힌 개발비 557만6,000달러(약 80억 원)는 화제의 R1이 아닌 V3에 들인 공식 비용으로 성공하기까지 실패 비용은 포함되지 않았다.
세계적 AI석학인 얀 르쿤 메타 AI 최고과학자는 "AI 개발비 대부분은 훈련이 아니라 추론에 들어간다"며 "수십억 명이 여러 기능을 쓰려면 이 (추론)시스템에 (기능이) 추가돼야 하고 그럴수록 비용이 는다. 진짜 질문은 이용자들이 충분히 비용을 지불할 의향이 있느냐는 것"이라고 지적했다.
신고 사유를 선택해주세요.
작성하신 글을
삭제하시겠습니까?
로그인 한 후 이용 가능합니다.
로그인 하시겠습니까?
이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.
구독을 취소하시겠습니까?
해당 컨텐츠를 구독/취소 하실수 없습니다.
댓글 0