IT·과학 산업 경제
정치 사회 문화·생활
전국 글로벌 연예·스포츠
오피니언 포토·영상 기획&시리즈
스페셜&이벤트 포럼 리포트 아이뉴스TV

SKT AI 'A.X K1', 수학·코딩 벤치마크서 딥시크-V3.1 앞서

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

허깅페이스에 개발 개요·성능 지표 공개

[아이뉴스24 서효빈 기자] SK텔레콤 인공지능 개발팀이 개발한 초거대 인공지능 모델 'A.X K1(에이닷엑스 케이원)'이 수학과 코딩 성능에서 중국 딥시크-V3.1을 앞선 것으로 나타났다. SK텔레콤은 이 같은 내용의 기술 보고서를 오픈소스 플랫폼 허깅페이스에 공개했다고 7일 밝혔다.

사진은 A.X K1 소개 이미지. [사진=SKT]
사진은 A.X K1 소개 이미지. [사진=SKT]

A.X K1은 4개월여의 짧은 개발 기간과 제한된 GPU 자원 속에서 완성된 국내 첫 500B 이상 초거대 모델이다. SK텔레콤 정예팀은 효율성을 극대화한 설계를 통해 글로벌 오픈소스 초거대 모델과 유사하거나 더 높은 성능을 주요 벤치마크에서 달성했다.

통상 매개변수가 늘어날수록 최적화 시간과 GPU 투입이 증가하지만 A.X K1은 타 정예팀 대비 최소 2배 이상 큰 모델 규모에도 불구하고 높은 성능을 확보했다. 제한된 자원 환경에서 대규모 모델을 구현했다는 점에서 기술적 의미가 크다는 평가다.

SK텔레콤은 향후 추가 연구를 통해 더 많은 컴퓨팅 자원과 데이터를 투입해 성능을 고도화할 계획이다. 연내 멀티모달 기능을 추가하고 모델을 조 단위 파라미터로 확대할 방침이다.

정예팀은 1000개의 GPU 자원을 활용해 A.X K1 학습을 진행했다. 학습 기간과 GPU 규모를 기준으로 총 학습량을 산정하고 스케일링 이론에 근거해 최대 모델 크기를 설계했다. 그 결과 5190억개 매개변수를 목표로 설정하고 약 10조개의 데이터를 투입해 학습을 완료했다.

개발 기간 동안 상시 1000개 이상의 GPU를 인공지능 훈련에 활용했으며, 투입 자원 대비 효과를 높이기 위해 학습 연산량을 수학적으로 설계해 관리했다. 이번 개발은 정부 지원 없이 자체 GPU 조달만으로 이뤄졌다.

모델 학습에는 웹 데이터, 코드, 이공계 데이터, 추론 데이터 등 고품질 데이터가 활용됐다. 한국어 특화 PDF 문서를 파싱해 합성 데이터를 생성했고 난이도별 커리큘럼 학습 방식도 적용했다.

A.X K1은 수학과 코딩 등 고난도 추론 능력이 요구되는 분야에서 경쟁력 있는 성능을 보였다. 수학 벤치마크 AIME25에서 89.8점을 기록해 딥시크-V3.1의 88.4점 대비 102% 수준의 성능을 냈다.

실시간 코딩 문제 해결 능력을 평가하는 LiveCodeBench에서는 영어 기반 75.8점, 한국어 기반 73.1점을 기록했다. 이는 딥시크-V3.1 대비 각각 109%, 110% 수준이다.

모델 구조 측면에서는 전체 5190억개 파라미터 중 330억개만 선택적으로 활성화하는 전문가 혼합 구조를 적용했다. 이를 통해 학습 안정성과 효율을 동시에 확보했다. 한 번에 128K 토큰을 처리할 수 있어 한국어 기준 약 10만 단어 분량의 긴 문맥도 분석할 수 있다.

SK텔레콤은 올해 중 A.X K1에 텍스트, 이미지, 음성, 영상 등 다양한 유형의 데이터를 동시에 인식해 처리할 수 있는 멀티모달 기능을 추가하고, 파라미터 규모를 조 단위로 확대하는 방안을 추진할 계획이다.

/서효빈 기자(x40805@inews24.com)



주요뉴스


공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.
alert

댓글 쓰기 제목 SKT AI 'A.X K1', 수학·코딩 벤치마크서 딥시크-V3.1 앞서

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기


뉴스톡톡 인기 댓글을 확인해보세요.



TIMELINE



포토 F/O/C/U/S