[CES 2026] 화면을 뚫고 나온 ‘Physical AI’시대의 개막

Insight

2025년이 생성형 AI와 소프트웨어 에이전트가 비즈니스 모델로서의 가치를 입증한 해였다면, CES 2026은 그 지능이 본격적으로 물리적 세계(Physical World)로 확장되는 거대한 전환점을 보여주었습니다.

올해 전시장은 화면 속에서 대화하는 챗봇이 아닌, 실제로 걷고, 운반하고, 작업하는 로봇들로 가득 찼습니다. 이는 ‘Physical AI(피지컬AI)’가 더 이상 먼 미래의 비전이 아니라, 당장 우리 곁에 다가온 현실임을 시사합니다.

본 리포트에서는 CES 2026 현장을 관통한 핵심 흐름을 행동(Action), 물리 이해(Physics), 자가 학습(Self-Learning)이라는 세 가지 기술적 축을 중심으로 분석해 보았습니다.


1. 행동의 진화 (Action): 단순한 ‘도구’에서 함께 일하는 ‘동료’로

이번 CES 2026에서 목격한 가장 큰 변화는 AI의 태도입니다. 그동안 AI가 인간의 질문에 답하는 수준의 ‘명령 수행자’였다면, 이제는 스스로 상황을 인지하고 최적의 대안을 제안하는 ‘능동적 파트너’로 완전히 탈바꿈했습니다.

‘능동형 에이전트가 이끄는 스마트홈’

이번 가전·스마트 홈 전시관을 관통한 핵심 키워드는 단연 ‘능동형 에이전트(Active Agent)’였습니다. 삼성과 LG를 비롯한 글로벌 리딩 기업들이 이번 전시에서 선보인 스마트홈 시나리오는 기대를 한 단계 더 넘어서는 수준이었는데요. TV, 냉장고, 로봇청소기 같은 개별 가전들은 물론, AI 홈로봇까지 유기적으로 연결되어, 하나의 팀처럼 움직이는 모습이 인상적이었습니다.

그동안 우리가 경험해 온 스마트홈은 사실 ‘똑똑한 리모컨’에 가까웠습니다. 앱을 실행하거나 음성으로 명령을 내려야만 반응하는 구조였죠. 하지만 2026년을 향해 공개된 스마트홈의 가전은 집 안의 공기질, 조도, 생활 패턴을 AI가 스스로 파악하고 관제합니다. 사용자가 지시하기 전에 환경 자체를 능동적으로 제어하는 모습이 자연스럽게 구현된 것인데요. 앞으로의 가전은 ‘기능을 수행하는 기기’에 머무르지 않고, 집이라는 공간 전체를 이해하며 먼저 행동하는 지능형 운영 체제로 진화할 것임을 분명하게 보여주었습니다.


공장과 물류의 에이전트화

산업관에서는 ‘완전 무인 공장’이라는 이상적인 구호 대신, 실질적인 ‘협업 파트너’로서의 AI가 강조되었습니다. 이제 공장은 단순히 기계가 돌아가는 곳이 아니라, AI가 전체를 조율하는 하나의 거대한 유기체로 변모하고 있습니다.로봇팔, 자율주행 카트, 센서 네트워크가 통합된 AI 플랫폼 위에서 작동하며, AI는 정해진 시나리오대로만 움직이는 기계가 아니라 공장 전체를 운영하는 디지털 매니저의 역할을 수행하게 된 것인데요. 과거의 자동화가 정해진 궤도만을 반복했다면, 2026년의 지능형 공장은 AI가 설비의 미세한 진동을 감지해 고장을 예견하고, 병목 현상이 예상되면 즉시 물류 경로를 재설계하거나 공정 파라미터를 스스로 수정할 수 있습니다. 이는 제조 현장의 AI가 인간의 보조 도구에 머물던 ‘단순 자동화’ 단계를 넘어, 스스로 판단하고 최적의 결과를 도출하는 ‘지능형 운영(Autonomous Operation)’ 단계로 완전히 진입했음을 시사합니다.


2. 현실 세계의 이해 (Physics): 월드 모델과 Sim-to-Real

이번 CES 2026에서 눈에 띄었던 또 하나의 지점은 AI가 물리적 세계를 이해하는 방식, 즉 ‘현실 이해 능력’이었습니다. AI가 화면 밖으로 나와 안전하게 움직이기 위해 반드시 필요한 과정이죠.

“가상에서 배워 현실로” : Sim-to-Real의 보편화

휴머노이드와 서비스 로봇 전시는 그야말로 Sim-to-Real(가상 학습 후 현실 적용) 기술의 경연장이었습니다. 특히, NVIDIA Isaac Sim이나 Omniverse와 같은 물리 시뮬레이션 플랫폼이 핵심 인프라로 부상했는데요. 로봇들은 가상 공간에서 수만 번 넘어지며 중력과 마찰력을 학습한 뒤, 그 제어 정책(Policy)을 실제 하드웨어에 이식받아 현장에 투입되었습니다. 관람객 앞에서의 자연스러운 계단 오르기와 물건 운반 시연은, “물리 법칙을 반영한 가상 학습”이 차세대 로봇 지능의 표준이 되었음을 시사했습니다.

자율주행의 진화: ‘End-to-End’와 ‘Sim-to-Real’의 간극을 넘다

이번 CES 모빌리티 존의 최대 화두는 단연 엔비디아가 공개한 자율주행 파운데이션 모델 ‘알파마요'(Alpamayo)와 기존의 강자 테슬라 FSD의 기술적 대격돌이었습니다. 두 기업은 ‘완전 자율주행’이라는 같은 목표를 향해 정반대의 접근 방식을 취하고 있으며, 핵심 쟁점은 Sim-to-Real Gap(가상과 현실의 간극)을 어떻게 극복 하느냐에 있었습니다.

  • 테슬라: “현실이 곧 시뮬레이터” (End-to-End Neural Net) 테슬라는 수백만 대의 차량에서 수집한 실제 주행 영상(Video)을 통째로 신경망에 학습시키는 End-to-End 방식을 고수합니다.
    • 강점: 현실의 미묘한 빛 반사나 비정형 도로 상황을 ‘직관’처럼 빠르게 처리합니다. 실데이터를 쓰기 때문에 Sim-to-Real Gap 자체가 존재하지 않습니다.
    • 한계: AI가 왜 멈췄는지 설명할 수 없는 ‘블랙박스(Black Box)’ 문제가 있으며, 데이터가 부족한 희귀 상황(Long-tail) 대응에 취약합니다.

  • 엔비디아 알파마요: “이유를 설명하는 AI” (VLA + Sim-to-Real) 반면, 엔비디아의 알파마요는 시각(Vision) 정보를 언어(Language)로 해석하고 행동(Action)하는 VLA 모델을 도입해, 운전의 이유를 설명할 수 있는 ‘추론 능력’을 탑재했습니다.
    • Sim-to-Real 전략: 테슬라가 현실 데이터로 99%를 채운다면, 엔비디아는 현실에서 얻기 힘든 사고 데이터나 극한 상황(Long-tail)을 옴니버스(Omniverse) 시뮬레이션에서 생성해 학습합니다.

3. 학습의 자립 (Self-Learning): 합성 데이터와 품질 관리

“데이터가 부족하다면 만들어서 쓴다.” CES 2026은 AI 학습 데이터의 패러다임 변화를 명확히 보여주었습니다.

희귀 상황을 만들어내는 합성 데이터 공장

AI 인프라 존에서는 로보틱스와 자율주행을 위한 합성 데이터(Synthetic Data) 생성 플랫폼이 주류를 이뤘습니다. 실제 도로에서 추돌 사고 데이터를 수집하기 어렵듯, 산업 현장의 치명적인 오류나 극한의 희귀 상황(Corner Case)을 현실에서 직접 겪으며 데이터를 모으는 것은 불가능에 가깝습니다.

이 문제를 해결하는 대표적인 사례가 바로 엔비디아의 로봇 개발 플랫폼 ‘아이작(Isaac)’입니다. 엔비디아는 이번 CES에서 아이작 심(Isaac Sim)을 통해 로봇이 공장에서 기름에 미끄러지거나, 조명이 꺼진 어두운 창고에서 물건을 찾는 등 현실에서 재현하기 위험한 시나리오를 가상 공간에서 무한대로 생성하는 과정을 시연했습니다. 로봇은 이 안전한 가상 세계에서 수백만 번의 실패를 경험하며 데이터를 쌓았고, 이를 통해 현실 세계의 돌발 변수에도 당황하지 않는 강력한 강건성(Robustness)을 확보했습니다. 즉, 시뮬레이터가 단순한 테스트 도구를 넘어, 로봇의 지능을 완성하는 ‘데이터 생산 기지’로 진화한 것입니다.


“양보다 질”… 데이터 큐레이션의 부상

무조건 많은 데이터를 학습시키는 ‘Big Data’ 시대는 지났습니다. 업계는 이제 데이터의 순도와 품질을 관리하는 ‘데이터 큐레이션(Data Curation)’에 사활을 걸고 있습니다. 노이즈가 섞이거나 물리적으로 부정확한 데이터가 섞일 경우, 로봇이나 자율주행차 같은 물리 AI는 치명적인 오작동을 일으킬 수 있기 때문입니다.

이번 CES에서 공개된 엔비디아의 물리 AI 파운데이션 모델 ‘코스모스(Cosmos)’가 이 변화를 상징하는 대표적인 사례입니다. 코스모스가 가상 공간에서도 현실과 똑같은 물리 법칙(중력, 마찰, 유체 역학 등)을 시뮬레이션할 수 있었던 비결은, 단순히 인터넷의 방대한 영상을 긁어모은 것이 아니라 물리적으로 유의미하고 품질이 검증된 영상 데이터만을 엄격하게 큐레이션 하여 학습했기 때문입니다.

엔비디아는 이를 통해 “AI의 성능은 모델의 크기가 아니라, 학습 데이터의 품질(Quality)이 결정한다”는 데이터 센트릭(Data-Centric) 철학을 증명했습니다. 이제 성공적인 AI 도입을 위해서는 모델 아키텍처를 고민하는 것만큼이나, ‘어떤 데이터를 선별해서 먹일 것인가’를 결정하는 큐레이션 파이프라인 구축이 필수적인 시대가 되었습니다.

실제 로봇 데이터를 바탕으로 합성 궤적을 생성하고, 이를 다시 물리 로봇 훈련에 활용하는 ‘실세계 기반 데이터 워크플로우’를 제공하는 주요 단계를 구조화한 모습

CES 2026이 남긴 메시지는 명확합니다. AI의 무게 중심이 클라우드와 모니터 속의 소프트웨어에서, 로봇·자동차·공장과 같은 물리적 시스템으로 완전히 이동했다는 것입니다.

  • Action: 에이전트화된 시스템은 AI에게 실행력을 부여했고,
  • Physics: 시뮬레이션과 월드 모델은 현실 세계를 이해하는 지혜를 주었으며,
  • Learning: 합성 데이터와 큐레이션은 지속 가능한 성장의 토대가 되었습니다.

2026년 이후의 경쟁력은 단순히 거대 언어 모델(LLM)을 보유하는 것에 있지 않습니다. 이 지능을 실제 로봇과 공장, 우리의 생활 환경에 얼마나 안정적으로 이식하여 ‘현실의 문제를 해결하느냐’가 기업의 생존을 가르는 척도가 될 것입니다.