IT·과학 산업 경제
정치 사회 문화·생활
전국 글로벌 연예·스포츠
오피니언 포토·영상 기획&시리즈
스페셜&이벤트 포럼 리포트 아이뉴스TV

[정구민의 톺아보기] CES 2026, 차세대 로봇 AI를 위한 마음AI와 하플리의 전시

본문 글자 크기 설정
글자크기 설정 시 다른 기사의 본문도 동일하게 적용됩니다.

로봇 파운데이션 모델과 모방 학습 기술 전시

CES 2026에는 차세대 로봇이 전시의 핵심이 됐다.

이번 전시에서는 우리나라의 K-휴머노이드 얼라이언스, 미국-중국-독일 등의 다양한 휴머노이드 전시와 함께, 로봇 AI 관련 기술도 중요한 이슈로 떠올랐다.

CES 2026 AI 3대 전시로 소개된 마음AI의 피지컬AI 기술[사진=CTA]
CES 2026 AI 3대 전시로 소개된 마음AI의 피지컬AI 기술[사진=CTA]

인공지능(AI) 프로세서 측면에서도 엔비디아, AMD, 퀄컴 등의 로봇용 AI 프로세서이 치열해지는 상황이다.

로봇AI 모델과 학습 측면에서 우리나라의 마음AI와 캐나다의 하플리(Haply)의 전시는 차세대 로봇 AI 진화에 많은 시사점을 줬다.

마음AI는 CTA가 AI 3대 핵심 전시로 소개한 바 있으며, 하플리는 CES 2026 로봇 분야 혁신상을 수상했다.

피지컬 AI 기반 로봇 두뇌를 만드는 마음AI

CES를 주관하는 CTA는 ’2026년 주목해야할 기술 트렌드’ 발표에서 마음AI, 지멘스, 사운드하운드AI를 AI 관련 전시의 3대 핵심 전시로 소개했다.

CTA는 이 세 회사가 각 산업 영역에 특화된 버티컬AI를 대표하는 기업으로 AI 혁신을 주도하고 있다고 밝혔다. 마음AI는 로봇, 사운드하운드AI는 자동차, 지멘스는 제조의 AI변화를 이끄는 회사로 소개됐다.

CES 2026에서는 로봇과 자율주행차 두 분야 모두에서 VLA(Vision Language Action) 기술이 핵심 기술로 부각되었다.

VLA 기술은 음성 명령과 영상 기반으로 동작을 생성하고 로봇을 구동하는 기술, 영상을 자연어 모델로 해석하여 동작을 생성하는 기술 등 영상AI와 자연어AI를 복합적으로 사용한다. 엔비디아가 발표한 자율주행 오픈 소스 알파마요도 VLA에 기반을 두고 있다.

CES 2026 AI 3대 전시로 소개된 마음AI의 피지컬AI 기술[사진=CTA]
마음AI, 피지컬AI 탑재 엔비디아 보드 전시와 스마트홈 로봇 서비스 시연. [사진=정구민 국민대 교수]

마음AI는 지난 2024년 인공지능 관련 탑 컨퍼런스인 뉴립스(NeurIPS)에서 VLA 기반 자율주행 기술 WoRV(World Model for Robotics and Vehicle Control)로 최우수논문상(outstanding paper)를 수상하는 등 기술력을 인정받고 있다. 이후 마음AI는 로봇, 자율주행 등에 AI 기술을 확장해 왔다. 여러 회사의 AI프로세서 위에 피지컬AI 소프트웨어를 묶어서 관련 보드를 제품화하고 있다.

또한, 로봇 및 자율주행 기기 등에 온디바이스 LLM인 ‘수다’와 VLA 기반 자율주행 기술 WoRV를 탑재하여 관련 회사들의 피지컬AI 혁신을 주도하고 있다.

CES 2026에서는 스마트홈의 로봇들이 사용자의 명령을 해석하여, AI 에이전트를 통해서 계획을 수립하고, 스마트홈의 고장을 자율적으로 점검하는 시연을 보여주었다.

AI에이전트와 VLA 기술을 바탕으로 로봇 하드웨어를 구동하는 로봇AI 및 로봇 파운데이션 모델을 주도하는 모습이다.

로봇 모방 학습 시간을 1/10로 줄여주는 하플리

캐나다의 하플리는 로봇 모방 학습 시간을 1/10로 줄여주는 휴먼 어드밴스드 로보틱스 플랫폼(HARP, Human Advanced Robotics Platform)으로 로봇 분야 혁신상을 수상했다.

하플리의 핵심 기술은 힘 되먹임(force feedback)으로 가상 촉각과 질감을 생성해주는 기술이다. XR 측면에서도 중요한 기술이며, XR 분야에서도 관련 기술로 혁신상을 수상했다. 로보틱스 분야에서는 새로운 응용으로 혁신상을 수상했다.

최근 사람의 행동을 로봇이 따라하는 모방 학습이 중요한 주제로 떠오르고 있다.

휴머노이드가 사람의 자연스러운 동작을 익히기 위해서 필요한 기술이다. 모방 학습에서는 사람의 동작을 카메라나 웨어러블 센서로 측정하여, 로봇이 따라하게 된다.

하플리는 자사의 정밀 힘 되먹임 기술을 이용하여 사람의 데이터를 정밀하게 취득하여 로봇에 제공할 수 있도록 했다.

회사 측은 이를 통해서 모방학습 시간을 1/10로 줄일 수 있다고 밝혔다. 현재 관련 기술은 엔비디아 로봇용 시뮬레이터인 아이작 심과도 협력하고 있다.

CES 2026 AI 3대 전시로 소개된 마음AI의 피지컬AI 기술[사진=CTA]
하플리, XR을 위한 힘 되먹임 기술 시연과 로봇 모방 학습 기술 전시. [사진=정구민 국민대 교수]

로봇을 위한 다양한 기반 AI 기술의 진화

차세대 로봇 기술의 진회를 위해서 다양한 기반 AI 기술들이 필요해지는 상황이다.

정밀 작업을 위한 정밀 센서 기술과 AI 프로세서 기술이 휴머노이드 관련 하드웨어 기술과 융합될 필요가 있다.

또한, 모방 학습 등 다양한 로봇 학습을 위한 기반 기술, VLA 및 AI에이전트를 통한 로봇 정밀 구동용 AI 기술 등도 중요한 이슈가 되는 상황이다.

CES 2026에서 마음AI와 하플리는 차세대 로봇 진화를 위한 AI 핵심 기술을 소개했다. 앞으로 피지컬AI와 로봇의 진화가 빨라질 것으로 예상되는 만큼, 관련 기술의 진화를 주목해 볼 필요가 있다.

정구민 국민대 교수는?

정구민 국민대 전자공학부 교수 [사진=본인 제공]

정구민 국민대 전자공학부 교수는 ㈜네오엠텔 창업 멤버로 활동했으며, 이후 SK텔레콤에서 근무했다.

현대자동차 생산기술개발센터, LG전자 CTO부문, 삼성전자 소프트웨어센터, 네이버 네이버랩스 자문교수를 역임했으며, 유비벨록스·휴맥스·현대오토에버 사외이사를 지내는 등 산업계와 학계를 두루 거친 전문가다.

현재 SDV표준화협의체 운영위원장, 국가인공지능전략위원회 자문위원, 한국모빌리티학회 회장, 한국ITS학회 부회장, 한국자동차공학회 전기전자부문회 이사, 대한전기학회 정보및제어부문회 이사로 활동 중이며, 현대케피코·오토노머스에이투지·페블스퀘어·카네비모빌리티·마음AI 자문교수를 맡고 있다.




주요뉴스


공유하기

주소가 복사되었습니다.
원하는 곳에 붙여넣기 해주세요.
alert

댓글 쓰기 제목 [정구민의 톺아보기] CES 2026, 차세대 로봇 AI를 위한 마음AI와 하플리의 전시

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
댓글 바로가기


뉴스톡톡 인기 댓글을 확인해보세요.



TIMELINE



포토 F/O/C/U/S