메타가 메타버스 사업 조정의 일환으로 가상현실 회의 애플리케이션 ‘호라이즌 워크룸’을 포함한 관련 서비스를 순차적으로 중단하고 투자 방향을 재편하고 있다. IT 매체 엔가젯(Engadget)에 따르면 메타는 오는 2월 16일(현지 시간)에 독립형 워크룸(Workrooms) 애플리케이션 서비스를 종료한다. 메타는 워크룸을 출시 당시 팀이 몰입형 환경에서 회의하고 협업할 수 있는 가상현실 공간으로 소개했으며, 메타버스 업무용 서비스의 핵심 사례로 제시해 왔다. 메타는 이제 자사 호라이즌(Horizon) 플랫폼이 “광범위한 생산성 애플리케이션과 도구”를 지원할 만큼 진화했다며, 이에 따라 “워크룸을 독립형 애플리케이션으로서 중단하기로 결정했다”고 설명했다. 엔가젯에 따르면 메타는 최근 메타버스 관련 지출을 크게 줄였으며, 리얼리티 랩스(Reality Labs) 부문에서 1,000명 이상 직원의 정리해고 절차를 시작했다. 이러한 감원과 조직 개편의 결과로 메타는 가상현실(VR) 스튜디오 3곳을 폐쇄했다. 리얼리티 랩스는 2021년 이후 700억달러 이상 손실을 기록했으며, 메타는 엔가젯에 리얼리티 랩스 투자의 일부를 메타버스에서 웨어러블 기기 쪽으로 전환하기로 했다
메타가 메타버스 부문 구조조정의 일환으로 가상현실(VR) 스튜디오 세 곳을 폐쇄하고, 인기 VR 피트니스 앱의 신규 콘텐츠 지원을 중단하는 조치를 단행했다. IT 매체 엔가젯(Engadget)에 따르면 메타는 아마처(Armature), 산자루(Sanzaru), 트위스티드 픽셀(Twisted Pixel) 등 세 곳의 VR 스튜디오를 폐쇄했다. 이와 함께 VR 피트니스 앱인 슈퍼내추럴(Supernatural)은 더 이상 새로운 콘텐츠 업데이트를 제공하지 않게 됐다. 트위스티드 픽셀은 지난해 11월 마블스 데드풀 VR(Marvel's Deadpool VR)을 출시한 스튜디오이고, 산자루는 애즈가르드즈 래스(Asgard's Wrath)로 알려진 개발사다. 엔가젯은 블룸버그(Bloomberg)를 인용해, 2021년에 레지던트 이블 4(Resident Evil 4)를 퀘스트(Quest) 플랫폼에 이식한 아마처 또한 폐쇄됐다고 전했다. 블룸버그 보도에 따르면 슈퍼내추럴 역시 앞으로 업데이트가 중단된다. 슈퍼내추럴 운영사는 페이스북(Facebook)에 올린 공지를 통해 “최근 스튜디오 조직 개편으로 인해, 슈퍼내추럴은 오늘부터 새로운 콘텐츠나 기능 업데이트를 더 이상 받지
광주과학기술원(GIST)은 AI융합학과 김승준 교수 연구팀이 자율주행차가 도로 이용자와 더 안전하고 명확하게 소통할 수 있도록 돕는 새로운 외부 인간-기계 인터페이스(eHMI) 기술을 개발했다고 밝혔다. 이번 연구는 그동안 대다수 연구가 보행자 단독 상황만을 가정해 온 한계를 넘어, 보행자·자전거 이용자·운전자가 동시에 존재하는 실제 도로 환경을 가상현실에서 재현해 eHMI의 효과를 검증했다는 점에서 의미가 크다. 자율주행차가 본격적으로 도입되면 보행자, 자전거 이용자, 일반 운전자 등 차량 외부의 모든 도로 이용자에게 새로운 변화가 생긴다. 기존에는 운전자가 보행자와 눈 맞춤이나 손짓 같은 비언어적 신호로 서로의 의사를 확인할 수 있었지만, 완전 자율주행 시대에는 이러한 신호가 더 이상 작동하지 않는다. 이에 따라 자율주행차가 주변 사람들에게 자신의 의도와 행동을 명확히 전달하는 eHMI 기술이 필수적이다. 그러나 지금까지의 연구는 대부분 자율주행차와 보행자 간 1대 1 상황에 집중돼 왔다. 실제 도로처럼 여러 이용자가 동시에 움직이는 환경에서는 자율주행차가 누구에게, 언제, 어디서 메시지를 전달해야 하는지 불명확해 오해와 위험이 발생할 수 있다는 점이 지
XR, 디지털 트윈 등 첨단 가상현실 기술이 빠른 속도로 산업 현장에 침투해 들어오고 있다. 제조, 건축, 물류 현장 등을 완전히 다른 모습으로 바꾸고 있는 가상현실 기술. 이러한 첨단 기술의 실제 적용 사례들을 한자리에서 살펴볼 수 있는 산업 전시회가 일산 킨텍스에서 열렸다. 전시회는 14일 개최 마지막 날임에도 불구하고 다양한 나이대의 관람객들로 북새통을 이뤘다. 일산 킨텍스 제1전시장에서 열린 2025 대한민국 가상융합산업대전(Korea Metaverse Festival 2025, 이하 KMF 2025)에선 B2B, B2C 영역을 아울러 VR 글라스, 홀로그램 디스플레이, 햅틱 장비 등 첨단 AI 기술이 접목된 최신 가상융합 제품과 서비스, 솔루션이 관람객들의 이목을 끌었다. 전시회장에는 가상현실 기술을 직접 체험해보려고 온 젊은 관람객들이 많았지만, 제조, 건축, 물류 등 산업 현장의 모습을 바꾸고 있는 XR, 디지털 트윈 솔루션들에도 관람객들의 관심이 쏟아졌다. 쉽게 만든 디지털 트윈에 3D 콘텐츠 올려 작업자 효율 높인 딥파인 공간 컴퓨팅 전문기업 딥파인은 현실 공간을 디지털 트윈으로 만들고 이를 활용하는 플랫폼을 선보였다. XR 기반 공간 컴퓨팅
인하대학교는 임홍기 전기전자공학부 교수가 이끄는 연구팀이 3D 재구성 분야에서 새로운 인공지능 기술을 개발해 연구성과를 인정받았다고 14일 밝혔다. 임홍기 교수 연구팀 소속 신승혁 석·박사 통합과정 학생과 김다빈 석사과정 학생은 기존 3D 재구성 인공지능 모델이 가진 한계를 극복하기 위해 전방 곡률 매칭(Forward Curvature-Matching, FCM) 기술을 제안했다. 기존 모델은 훈련할 때 사용된 특정 조건에만 의존해 입력 방식이 바뀔 때마다 재훈련이 필요했다. 연구팀이 제시한 FCM 기술은 모델이 3D 객체를 생성하는 과정에서 입력 데이터와 가장 잘 일치하도록 최적의 변화폭을 결정해 기존 방식보다 더 빠르고 정확하게 결과를 만들어낸다. 이는 3D 재구성의 품질과 유연성을 동시에 향상시킨 점에서 학계 관심을 받았다. 이 연구를 담은 ‘확산형 프라이어와 전방 곡률 매칭 우도 업데이트를 통한 적응형 3D 재구성(Adaptive 3D Reconstruction via Diffusion Priors and Forward Curvature-Matching Likelihood Updates)’ 논문은 국제학술대회 신경정보처리시스템학회 2025에 게재 승인을
KAIST 연구진이 단 2~3장의 일반 사진만으로 실제 환경을 고정밀 3D 공간으로 복원할 수 있는 혁신적인 기술을 개발했다. 이 기술은 라이다(LiDAR)나 고가의 3D 스캐너, 복잡한 보정 과정 없이도 실험실·도심·건축물 등 현실 공간을 실감형 가상 환경으로 재현할 수 있어, 향후 3D 콘텐츠 제작의 새로운 패러다임을 제시할 것으로 기대된다. KAIST 전산학부 윤성의 교수 연구팀이 개발한 ‘SHARE(Shape-Ray Estimation)’ 기술은 정밀한 카메라 위치나 방향 정보를 알지 않아도 영상 자체만으로 고품질의 3차원 장면을 복원할 수 있는 신개념 3D 복원 방식이다. 기존 기술은 카메라의 촬영 각도와 위치를 사전에 알아야 정확한 복원이 가능했으나, SHARE는 영상 내에서 스스로 공간 정보를 추출해 카메라 시선 방향(Ray)과 사물의 형태(Shape)를 동시에 추정함으로써 이 한계를 극복했다. SHARE 기술은 소수의 영상에서도 서로 다른 시점에서 촬영된 장면을 하나의 공통된 공간으로 자동 정렬하고, 왜곡 없이 정확한 3D 구조를 복원한다. 별도의 학습 과정이나 장비 보정 없이도 정밀한 모델링이 가능해 현장 활용성이 높으며, 건설·미디어·게임·
줌 커뮤니케이션스는 24일 구글의 확장현실(Extended Reality, XR) 플랫폼인 안드로이드 XR을 위해 설계된 새로운 앱을 발표했다. 이번 앱은 사용자가 직장 동료와 고객과의 협업에서 더욱 몰입감 있는 환경을 경험하도록 지원한다. 안드로이드 XR용 줌 앱은 줌 워크플레이스(Zoom Workplace)의 확장선으로, VR 헤드셋과 스마트 글래스를 통해 사용자가 공간의 제약 없이 자연스럽게 협업할 수 있도록 설계됐다. 제프 스미스 줌 워크플레이스 AI·미팅 및 스페이스 부문 제품 총괄은 “안드로이드 XR용 줌 워크플레이스는 사람들이 서로 연결되는 혁신적인 방법을 제시한다”며 “사용자는 언제 어디서나 자신에게 맞는 방식으로 연결되어 더 많은 일을 효율적으로 수행할 수 있다”고 말했다. 줌은 이번 앱을 통해 가상현실과 생산성의 결합을 본격화한다. 줌 워크플레이스의 경험이 안드로이드 XR 기기로 확장되면서 사용자는 사무실 안팎은 물론 재택근무나 이동 중에도 효율적으로 협업할 수 있게 됐다. 안드로이드 XR용 줌 앱은 ▲가상현실 환경에서 줌 미팅 참여 및 패스스루 모드를 통한 현실 세계와의 연결 유지 ▲AI 컴패니언을 활용한 음성 명령 기반 회의 요약 및 액
인공지능(AI)·로봇 기반 원격근무 솔루션 ‘버프 파일럿’ 론칭 청년 인력난, 취업 취약계층 고용 문제 등 해결 가능한 기술 제시해 블루바이저시스템즈가 인공지능(AI) 로보틱스 파일럿 기반 원격근무 애플리케이션 ‘버프 파일럿(Buff Pilot)’을 공식 출시했다. 버프 파일럿은 블루바이저시스템즈 자체 개발 코어 엔진 ‘하이버프(HIGHBUFF)’와 구글(Google) 생성형 AI(Generative AI) 모델 ‘제미나이(Gemini)’, 가상현실(VR)·증강현실(AR) 기술 등이 접목된 솔루션이다. 이 애플리케이션은 청년 인력난과 장애인·고령자 등 취업 취약계층의 고용 단절 문제를 동시에 해결하는 것을 목표로 한다. 해당 애플리케이션은 ▲실시간 다국어 통역 ▲AI 업무 보조 ▲정밀 원격 로봇 제어 등 기능을 제공한다. 간단한 교육을 통해 전문적인 상담·안내 업무 수행도 지원한다. 사측은 현재 기업들이 겪는 청년 인력 부족과, 충분한 역량을 가졌음에도 경제 활동에 어려움을 겪는 취업 취약 계층 간의 ‘인력 불일치’ 문제를 지적했다. 이에 따라 회사는 인력이 AI 로봇을 원격 조종하는 근무 방식을 고안했다고 밝혔다. 이 방식을 통해 외국어 소통이나 복잡한 직
새로운 시대, 새로운 질문: ‘BOT’과 공존의 길을 찾다 영화라는 예술 분야에도 새로운 기술이 도입돼 혁신적인 변화의 바람을 불어넣고 있다. 스크린 너머의 이야기를 단순히 관람하는 시대는 지나가고 있다. 관객은 다양한 첨단 기술을 통해 이야기 속으로 직접 뛰어들어 주인공이 되기도 하고, 가상 세계 속 캐릭터와 상호작용하며 새로운 형태의 영화적 경험을 영위하고 있다. 이는 곧 관객을 스크린 안으로 투입시키는 놀라운 변화를 만들어내고 있음을 의미한다. 3부에서는 이러한 기술 진보가 가져온 영화 경험의 혁신을 심층적으로 탐구하며, 과거·현재·미래의 로봇과 인공지능(AI) 기술이 관객 참여형 영화의 새로운 가능성을 어떻게 열어가고 있는지 살펴본다. 이 과정에서 관객은 능동적으로 스토리를 만들어나가고, 등장인물과 교감하는 새로운 영화적 주체로 거듭나고 있다. 이러한 변화는 인간과 기술의 공존이라는 더 큰 주제 속에서 로봇 영화의 미래를 어떻게 재정의할지, 그리고 우리에게 어떤 새로운 질문을 던질지 함께 고민해보는 여정의 시작이 될 것이다. ① 관객이 주인공이 되는 현장형·참여형 영화의 시대 기술 진보는 관객을 이야기 속으로 직접 뛰어드는 경험으로 이끌고 있다. 가상
오늘날 제조 현장은 전례 없는 속도로 변화하며 ‘디지털 전환(DX)’이라는 거대한 변혁에 직면했다. 과거 소품종 대량생산 시대의 핵심 목표였던 생산 효율성 극대화와 원가 절감은 이제 DX가 추구하는 바를 넘어섰다. 이제 제조 기업들은 단순히 비용을 줄이고 생산량을 늘리는 것을 넘어, 급변하는 시장 환경에 대한 민첩한 대응과 새로운 가치 창출이라는 더욱 복합적인 과제를 안게 되었다. 현재 제조 현장은 ▲예측 불가능한 글로벌 공급망 변동성으로 인한 생산 차질 ▲개인화되고 빠르게 변화하는 시장 수요에 대한 유연성 부족 ▲복잡해지는 제품 설계 및 제조 공정의 난이도 등 새로운 도전에 맞닥뜨렸다. 이러한 복합적인 어려움 속에서 기업들은 단순 자동화를 넘어서는 새로운 접근 방식을 요구하고 있다. 이는 가상과 현실 세계를 끊김 없이 연결하고, 모든 생산 단계에서 발생하는 방대한 데이터를 기반으로 실시간 의사결정을 고도화하는 새로운 패러다임을 의미한다. 제조 DX는 기업이 불확실한 시장 환경 속에서 민첩하게 대응하고 지속 가능한 경쟁 우위를 확보하기 위한 필수적인 전략으로 자리매김하고 있다. 이처럼 제조 산업 전반에 걸쳐 혁신을 위한 강력한 동력으로 작용하는 DX야말로,
단일 RGB 영상만으로 양손·물체 간 3D 상호작용 실시간 복원 손이 가려지거나 보이지 않는 물체 부분까지 자연스럽게 추정 가능해 가상현실(VR), 증강현실(AR), 로봇 제어, 원격 수술 등 분야서 각광 울산과학기술원(UNIST) 백승렬 교수팀이 사람의 양손이 처음 보는 물체를 조작하는 모든 과정을 단 한 대의 카메라 영상만으로 구현하는 인공지능(AI) 기술을 개발했다. 이 기술은 가상현실(VR), 증강현실(AR), 로봇 제어, 원격 수술 시뮬레이션 등 다양한 분야에 적용될 것으로 기대받는다. 교수팀이 개발한 이번 기술은 단일 RGB 영상만으로 양손과 처음 보는 기구의 복잡한 상호작용을 실시간 3차원(3D)로 시각화할 수 있는 AI 모델 ‘BIGS(Bimanual Interaction 3D Gaussian Splatting)’다. 이는 두 손으로 낯선 물체를 조작하는 장면을 3D로 복원하거나, 양손과 의료기구가 뒤엉킨 모의 수술 장면을 AR 화면에 재현하는 기술이다. 지금까지 AI는 카메라로 촬영된 2차원(2D) 데이터만 입력받기 때문에, 손과 물체의 실제 위치나 입체적인 형태를 파악하려면 이를 3차원으로 재복원하는 과정을 거쳐야 했다. 이러한 기존 기술은
엠아이큐브솔루션, AI 솔루션 기반 자율제조 달성 방법론 공유해 AI 통한 품질 최적화, 예지 보전, 이상 탐지 혁신법 강조 “제조 공정 전주기서 AI 기반 자율제조로 트렌드 변하고 있어” 소프트웨어 정의 기술(Software Defined Everything 이하 SDx)이 다양한 산업 분야에서 조명받고 있다. SDx는 소프트웨어를 중심으로 모든 시스템 요소가 제어·운영·작동되는 개념이다. 스마트폰으로 예를 들면, 기기 교체 없이 애플리케이션 업데이트만으로 새로운 기능을 지속 창출하는 것과 유사한 시스템이다. 제조업에서는 큰 범주로 ‘소프트웨어 정의 제조(Software Defined Manufacturing)’가 떠오르고 있다. 이 안에는 ‘소프트웨어 정의 공장(SDF)’·‘소프트웨어 정의 공급망(SDS)’·‘소프트웨어 정의 자동화(SDA)’ 등 세부 SDx 요소가 포함된다. 이 중 SDF는 소프트웨어가 공장 내 모든 인프라를 관장하는 기술이다. 소프트웨어 기반으로, 인공지능(AI)·사물인터넷(IoT)·클라우드·빅데이터·디지털 트윈 등 차세대 기술 활용이 가능하다. 이를 통해 자동화 요소 강화, 비용 절감, 효율성 향상, 수율·생산성 최적화, 인프라 유연
한국과학기술원(KAIST)은 기계공학과 오일권 교수 연구팀이 형상기억합금을 이용해 보이지 않아도 공간을 감지할 수 있는 촉각 기술 ‘직교 방향 제어 웨어러블 햅틱’(WHOA)을 개발했다고 21일 밝혔다. 최근 화재 등 재난 상황에 드론을 투입해 정보를 수집하는 촉감형 인터페이스 기술이 활발히 연구되고 있지만, 기존 기술은 시야가 제한된 상황에서 입체적인 정보를 전달하는 데 어려움이 있었다. 연구팀은 외부 힘으로 형태가 바뀌더라도 온도가 올라가면 본래 형태로 돌아가는 특수 금속인 형상기억합금 소재를 적용, 3차원 공간 정보를 재구성할 수 있는 웨어러블 햅틱 기술(옷감형 구동기)을 개발했다. 서로 수직인 독립된 촉감 모드를 생성, 팔이나 발에 착용했을 때 사용자에게 입체 공간정보를 촉감으로 전해 내비게이션과 원격 조작을 직관적으로 수행할 수 있도록 보조한다. 사용자는 가로, 세로 방향의 독립적인 촉각 모드 조합을 통해 드론이 보낸 공간정보 데이터를 입체적으로 피드백 받을 수 있으며, 신발 안 작은 공간에서도 동작이 가능해 장시간 착용 시 피로를 최소화할 수 있다. 연구팀은 WHOA를 적용한 드론 내비게이션 시스템을 화재 현장의 건물을 배경으로 한 가상현실(VR)
최근 산업 현장에서 XR(Extended Reality) 기술이 주목받고 있다. 메타버스와 디지털 트윈 등으로 대표되는 XR 기술은 단순히 가상과 현실을 잇는 기술을 넘어서, 실제 현장에서의 활용성을 극대화하는 방향으로 진화하고 있다. 특히, 건설 및 제조업 분야에서는 XR 기술을 통해 3D 설계 정보와 실물 데이터를 실시간으로 비교하고 검증하는 솔루션이 속속 등장하고 있다. 이 중 대표적인 예로 버넥트의 Twyn 솔루션이 있다. 이 솔루션은 2D 도면을 대체하여 초심자도 품질 검사를 수행할 수 있게 하고, 기존 검사 시간의 90%를 단축하여 효율성을 극대화한다. 현대건설기계, 볼보건설기계, 효성중공업 등의 주요 산업군에 도입되면서, XR 기술이 현실적인 업무의 문제 해결 수단으로 자리매김하고 있는 상황이다. 이번 글에서는 XR 기술의 산업적 활용 사례와 Twyn 솔루션의 도입 효과에 대해 심층적으로 분석해본다. XR 기술의 배경과 주요 트렌드 XR(Extended Reality)은 VR(가상현실), AR(증강현실), MR(혼합현실)을 아우르는 개념으로, 사용자가 가상과 현실 사이를 넘나들 수 있는 경험을 제공한다. 최근 XR 기술은 기술적 진화와 함께 산업
미라콤아이앤씨, 스마트 제조 新 패러다임 제시했다...‘솔루션 페어’서 차세대 방법론 다뤄 소프트웨어 기반 ‘진화형’ 스마트 팩토리 시스템 강조 “하드웨어가 지배하던 공장, 소프트웨어가 하드웨어 제어하는 시대 열렸다” 디지털 전환(DX)이 파란을 일으키고 난 후 새로운 경향이 나타났다. 소프트웨어가 시스템 내 모든 요소를 연결·제어하는 ‘소프트웨어 정의 기술(Software Defined Everything 이하 SDx)’이 그 주인공이다. SDx는 DX를 기반으로 구축된 데이터 기반 인프라가 확장된 개념으로, 여기서 ‘x’에는 데이터가 핵심 소재로 활용되는 모든 영역이 포함될 수 있다. 소프트웨어 정의 네트워크(Software Defined Network, SDN), 소프트웨어 정의 스토리지(Software Defined Storage, SDS), 소프트웨어 정의 데이터센터(Software Defined Data Center, SDDC) 등이 이에 해당한다. 최근에는 ‘소프트웨어 중심 차량(Software Defined Vehicle, SDV)’이 글로벌 자동차 업계에서 핫하다. 그렇다면 제조 영역은 어떨까? 제조업도 DX 프로젝트가 한창 진행되고 있다.