퀄컴 AI PC 전용 프로세서인 ‘스냅드래곤 X 엘리트’ 탑재돼 에이서(Acer)가 4일부터 7일까지 대만 타이베이에서 개최되는 ‘컴퓨텍스 2024’에서 차세대 AI 기능을 탑재한 노트북을 비롯한 신제품을 공개했다. 이번 컴퓨텍스 2024에서 공개된 에이서의 AI 노트북 신제품 ‘스위프트 14’는 에이서가 첫 선보이는 코파일럿+ PC로, 퀄컴의 AI PC 전용 프로세서인 ‘스냅드래곤 X 엘리트’가 탑재돼 다양한 영역에서 강력한 생산성과 사용자의 창의성 구현을 지원한다. 대표적인 코파일럿+의 전용 기능인 ‘리콜’을 통해 과거 작업했던 자료를 손쉽게 검색하며, ‘코크리에이터’, 라이브 캡션’까지 다양한 옵션을 지원해 빠르고 효율적인 작업 수행이 가능하다. 14.5인치의 WQXGA(2560x1600) IPS 패널을 적용한 디스플레이는 120Hz의 고주사율과 100% sRGB의 색 재현율로 풍부한 색감의 부드러운 화면을 구현하며, 블루라이트를 차단하는 TUV 라인란드 인증을 획득해 편안한 시청 경험을 제공한다. 노트북에는 노트북 관리와 AI 기능 라이브러리를 제공하는 ‘에이서센스(Acersense)’ 단축키가 탑재돼 편리성을 강화했으며, 최대 32GB LPDDR5X
AI 서버, AI 워크스테이션, 엔터프라이즈 GenAI솔루션 등 에이수스 AI 에코시스템 소개 에이수스가 지난 3일 대만에서 신제품 발표회를 개최하고, 금일부터 오는 7일까지 ‘컴퓨텍스 2024’에 참가해 다양한 AI PC 라인업 및 AI 기술력을 선보인다. 에이수스 및 에이수스 ROG는 이번 컴퓨텍스 2024에 오프라인 부스를 마련해 참관객에게 크리에이터 및 게이밍 솔루션과 제품은 물론 AI 서버, AI 워크스테이션, 엔터프라이즈 GenAI 솔루션 등 에이수스 AI 에코시스템을 소개한다. 현장에는 부스를 찾은 수많은 참관객으로 인산인해를 이뤘다. 에이수스는 퀄컴, AMD 등 전 세계 제조사가 새롭게 선보이는 AI CPU를 빠르게 채택해 다양한 라인업에 적용해 일반 사용자부터 전문 게이머 및 창작가에 이르기까지 모두가 사용하는 제품 라인업을 선보인다. 컴퓨텍스에 전시되는 모델은 AI CPU 기반의 컨슈머용 노트북 1종(젠북 S 16), 크리에이터용 노트북 3종(프로아트 P16, 프로아트 PX13, 프로아트 PZ13), 게이밍 라인업 4종(ROG Ally X, ROG 제피러스 G16, TUF 게이밍 A16, TUF 게이밍 A14) 등이다. 젠북 S 16은 1.
'Conneting AI' 주제로 AI 시대 주도권 이끄는 전시회로 거듭나 세계적인 IT 전시회인 '타이베이 국제 컴퓨터 박람회(COMPUTEX 2024)'가 성대한 막을 올렸다. 타이베이 난강 전시장(南港展覽館) 1, 2관에 마련된 컴퓨텍스 2024는 세계 1500여 개 IT 기업이 4500여 개 부스 규모로 참여해 화제를 모았다. 주최 측은 이번 전시회에 전 세계에서 5만여 명 이상의 참관객이 참여할 것으로 예상했다. 특히 올해는 'Conneting AI'라는 테마를 앞세워 AI 시대를 준비하는 전시회로 개념을 확장했다. 이에 AI 컴퓨팅, 차세대 통신, 미래 모빌리티, 증강 현실, 녹색 에너지 및 지속 가능성, 혁신 등의 하위 카테고리로 삼아 각 분야의 기술을 주도하는 기업들을 전시회에 참여하도록 독려했다. 난강 전시장 1관에서 진행된 오프닝 세레모니에는 주최기관인 황즈팡(黃志芳) 중화민국대외무역발전협회(TAITRA) 회장과 타이베이컴퓨터협회(TCA) 폴 팽(Paul SL Peng) 회장을 비롯해 주요 내빈이 참석했다. 특히 이날 행사에는 라이칭더(賴淸德) 대만 총통이 참석해 전시회의 무게감을 한껏 더했다. 라이칭더 총통은 개막을 축하하며 "올해 컴퓨텍
올해 글로벌 출하량, 전년(125만 대) 대비 55% 증가한 194만 대로 추산 인공지능(AI) 서버와 PC 등에 대한 수요 증가로 TSMC 등 관련 대만업체들 하반기 실적이 호조를 보일 것이라는 전망이 나왔다. 26일 연합보 등 대만언론에 따르면, 대만 정보정책협의회 산하 산업정보연구소(MIC)와 시장조사기관 트렌드포스는 최근 AI 서버 올해 글로벌 출하량이 지난해(125만 대)보다 55% 증가한 194만 대로 추산하면서 이같이 밝혔다. MIC와 트렌드포스는 또 글로벌 4대 클라우드 서비스 제공업체(CSP)인 AWS, 마이크로소프트, 구글, 알파벳과 메타의 설비투자 금액이 지난해 1400억 달러(약 191조 원)에서 올해 2000억 달러(약 273조원)로 늘어났다고 언급했다. 이런 영향으로 인해 대만 TSMC, 대만 폭스콘, 퀀타텀퓨터, 인벤택, 위스트론, 에이수스, 에이서 등 대만업체 하반기 실적에 호황으로 작용할 것이라고 설명했다. 대만 폭스콘 산하 서버 제작을 담당하는 '폭스콘 인더스트리얼 인터넷(FII)'의 정훙멍 이사장은 폭스콘의 전 세계 AI 서버 시장 점유율이 40%에 달할 것이라고 밝혔다. 이어 고객사와 협력을 통해 차세대 생성형 서버를 곧
WT Korea ‘AI at the Real Edge’ 세미나 개최...온디바이스 AI, AI MCU 등 에지 생태계 총망라 “효율성 제고를 위해 온디바이스 AI 트렌드에 따라야” 과거부터 인류의 미래를 점칠 때 빼놓을 수 없는 기술은 뭘까? 바로 인공지능(AI)이다. AI는 4차 산업혁명 이후의 차세대 산업체제를 이끌 차세대 슈퍼스타로 평가받는다. 지난 2022년 11월 챗GPT(ChatGPT)의 등장을 기점으로, AI는 ‘생성형 AI(Generative AI)’라는 이름으로 진화를 맛봤다. 이는 곧 지위·연령 등을 막론하고 누구든 활용할 수 있는 기술로의 잠재성을 실감케했다. 이처럼 AI는 인간 삶의 현재와 미래를 잇는 가교로써 존재감을 확장하는 중이다. AI 전문가들은 AI가 활동 영역을 넘나들며 대중화되기 위해서는 각종 애플리케이션, 모바일 기기, 임베디드 및 IoT 시스템 등에서 곧바로 AI 활용이 가능해야 한다고 조언한다. 여기서 언급된 애플리케이션 및 기기는 스마트폰, 카메라, 센서, 웨어러블 및 스마트홈 디바이스 등이다. 온디바이스 AI(On-Device AI)는 바로 여기에 착안해 등장한 기술이다. 클라우드나 서버를 거쳐 AI 및 데이터를 처
초거대 AI 시대의 인프라 소프트웨어와 클라우드의 발전 방안 발표해 모레가 지난 2일 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 열린 'kt 클라우드 서밋 2024’에 연사로 참가해 초거대 AI 시대의 인프라 소프트웨어와 클라우드의 발전 방안에 대해 발표했다. 작년에 이어 두 번째로 열린 이 행사는 올해 ‘AICT for all Business with Cloud·IDC’라는 슬로건을 기반으로 인공지능(AI), 클라우드, 인터넷데이터센터(IDC) 분야의 산업 동향과 전략, 기술 중심의 서비스 구현 및 고객 경험을 소개했다. AICT는 통신 역량에 IT와 AI를 더해 IT 관련 전 산업군에서 AI 적용을 확대하는 디지털 혁신 파트너가 되겠다는 KT의 새로운 성장 전략이다. 모레 조강원 대표는 주제발표를 통해 "초거대 AI 시대를 맞아 전체 AI 기술 스택에서 인프라, 특히 인프라 SW의 역할이 본질적으로 바뀌고 있다. 계산 자원을 잘 활용하는 것이 초거대 AI의 품질을 좌우하는 핵심 요소"라며, "컴퓨팅 인프라를 키우고 활용하는 능력을 개발해 수백, 수천 개의 GPU를 동시에 잘 활용하는 것이 중요하다"고 설명했다. 조 대표는 "최고 수준의 LLM을 빠르게
AMD MI300X 기반 SR685a V3 8GPU 서버 론칭..."기업 AI 전환 가속화 도와" 씽크애자일 MX 455 V3 엣지 솔루션, 씽크시스템 SD535 V3 서버도 함께 공개 레노버와 AMD가 생성형 AI 및 거대언어모델(LLM) 워크로드에 특화된 새로운 서버 및 엣지 솔루션을 이달 8일 발표했다. 양사는 금융·의료·에너지·기후연구·운송 등 대량의 데이터 세트를 관리해야 하는 분야에 IT 인프라 솔루션을 제공하기 위해 이번 신제품 설계에 협력했다. 그 첫 번째 제품은 씽크시스템(ThinkSystem) SR685a V3 GPU 서버로, 대규모 데이터 세트를 처리하기 위한 대용량 메모리와 I/O 대역폭을 제공한다. 이 제품은 엔터프라이즈 프라이빗 온프레미스 AI 및 퍼블릭 AI 클라우드 서비스 제공자 등에 최적화된 솔루션으로 알려졌다. 씽크시스템 SR685a V3에는 AMD 4세대 EPYC CPU와 AMD 인스팅트 MI300X GPU가 이식됐다. 여기에 AMD 인피니티 패브릭을 통해 상호 연결되며, 1.5TB 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능 그리고 공기 냉각 기술을 담았다. 현재 엔비디아 HGXTM GPU
아이에스시(ISC)가 2024년 1분기 매출 351억 원, 영업이익 86억 원(영업이익률 25%)을 기록했다고 밝혔다. 전 분기 대비 매출액은 40%, 영업이익은 220% 증가했다. 아이에스시는 실적의 주요 요인으로 지난해부터 꾸준한 성장세를 보이고 있는 비메모리 반도체용 제품의 매출 상승을 꼽았다. 특히 데이터센터용 AI 서버 CPU·GPU 소켓과 온디바이스 AI 반도체 테스트 소켓 등 AI 반도체 관련 매출이 전사 매출의 25%를 넘는 등 고부가가치 제품의 매출 증가가 수익성 증가의 주요인이라는 분석이다. ISC는 관계자는 “반도체 업황 회복과 함께 확대되고 있는 비메모리 반도체 및 AI 반도체 관련 수요에 힘입어 지난해 4분기부터 성장세를 이어나갈 수 있었다”며 “반도체 경기 회복이 본격화되는 2분기부터는 매출, 영업이익 모두 큰 폭의 성장세가 예상된다”고 말했다. 헬로티 함수미 기자 |
컨테이너화 채택함으로써 원활한 확장성과 클라우드 마이그레이션 제공 고려 스트라드비젼이 AI 학습 자원의 관리를 최적화하기 위해 디지털 혁신을 가속화한다. 이번 디지털 혁신의 핵심은 비용 효율성 극대화를 기본으로 고객에게 시간적, 서비스 품질적 측면에서 실질적인 혜택을 제공하는 것이 목표다. 이를 위해 스트라드비젼은 전략적으로 컨테이너화를 채택했다. 향후 원활한 확장성과 클라우드 마이그레이션 제공을 고려한 것으로, 서버, 스토리지, 네트워킹과 같은 핵심 자원을 최적화하기 위함이다. 스트라드비젼은 오픈소스 컨테이너 시스템인 쿠버네티스 관리 플랫폼, ‘수세 랜처(SUSE Rancher)’를 기반으로 하는 최첨단 컨테이너 기술을 활용해 워크로드에 맞춰 필요한 컴퓨팅 자원을 할당, 개발자가 GPU 자원을 효과적으로 공유하도록 했다. 이 접근 방식을 통해 스트라드비젼은 GPU 자원 활용도를 높였으며, 원가절감을 통해 고객에게 상당한 비용 절감 효과를 제공하게 됐다. 즉각적인 서비스 제공 및 고객 요구에 맞는 맞춤형 솔루션과 함께 강조되는 것이 속도인데, 스트라드비젼은 컨테이너 기술 활용을 통해 최소화한 인력 구성으로 고객에게 안정적인 서비스를 보장하게 된 것이다. 잭
SMX5 타입 H100 GPU 각 8개씩 탑재한 서버를 대규모 클러스터로 구성해 지코어는 4일 서울 중구 더 플라자호텔에서 '한국 AI시장에 가속도 붙여줄 새로운 시작'이라는 주제로 기자간담회를 갖고, 국내 최초로 엔비디아의 H100을 기반으로 한 AI 퍼블릭 클라우드 서비스를 오픈, 한국시장에 첫 선을 보인다고 밝혔다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전한 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다. 룩셈부르크에 본사를 두고 지코어는 6개 대륙에 걸쳐 자체 글로벌 IT 인프라를 관리하고 있다. 글로벌 네트워크는 전 세계에 걸쳐 안정적인 티어 4 및 티어 3 데이터 센터에 위치한, 총 110Tbps 이상의 용량을 갖춘 160개 이상의 PoP로 구성돼 있다. 이날 기자간담회에는 자크 플리스(Jacques Flies) 주한룩셈부르크 초대 대사 내정자가 참석해 축사를 전했다. 자크 플리스 초대 대사 내정자는 "지코어 한국 진출은 국내 기업에 혁신적인 기술을 전하고 성과에 기여할 것으로 기대된다. 한국-룩셈부르크 간 비즈니스 협력과 투자가 급진적으로 증가하는 가운데, 지코어
미래 LLM(대형 언어 모델) 인프라에도 적합한 핵심 빌딩 블록 제공 슈퍼마이크로컴퓨터(이하 슈퍼마이크로)가 생성형 AI의 도입을 가속화하기 위한 슈퍼클러스터 포트폴리오를 발표했다. 최신 솔루션은 현재는 물론 미래의 LLM(대형 언어 모델) 인프라에도 적합한 핵심 빌딩 블록을 제공한다. 슈퍼마이크로의 탁월한 슈퍼클러스터 솔루션 3종은 현재 생성형 AI 워크로드에 사용 가능하다. 4U 수냉식 냉각 시스템 또는 8U 공냉식 냉각 시스템은 강력한 LLM 학습 성능은 물론 대규모 배치(Batch)와 대용량 LLM 추론용으로 특별히 제작 및 설계됐다. 마지막으로 1U 공냉식 슈퍼마이크로 엔비디아 MGXTM 시스템을 갖춘 슈퍼클러스터는 클라우드 규모 추론에 최적화해 있다. 찰스 리앙(Charles Liang) 슈퍼마이크로 사장 겸 CEO는 "AI 시대에 컴퓨팅 단위는 단순히 서버 수가 아닌 클러스터로 측정된다. 슈퍼마이크로는 글로벌 제조량을 월 5000개의 랙으로 확장해 빠르게 완전한 생성형 AI 클러스터를 제공할 수 있다"며, "확장 가능한 클러스터 빌딩 블록에 64노드 클러스터는 400Gb/s 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹을 갖춰 72
양사는 협력으로 고성능 엣지 AI시장 공략에 나설 계획 사피온은 16일인 오늘 어드밴텍 코리아와 함께 수요연계를 통한 시스템 반도체 시제품 제작지원사업인 ‘콤파스(COMPASS)’ 시제품 제작 지원 대상자로 선정됐다고 밝혔다. 양사는 협력을 통해 고성능 엣지 AI시장 공략에 나선다. 엣지 AI는 서비스가 필요한 장치 혹은 제품에서 인공지능 응용이 직접 구동되는 것을 의미한다. 클라우드 시스템과 비교해 엣지 AI의 기술을 통해 저지연 실시간 서비스 및 개인 정보 보안 강화 등이 가능하다. 콤파스는 산업통상자원부 산하 한국산업기술기획평가원이 운영하고 한국반도체연구조합이 주관하는 수요연계를 통한 시스템반도체시제품 제작지원사업으로서, 시스템 반도체 분야 수요가 있는 기업과 기술을 가진 반도체 공급 기업을 매칭하고, 상용화를 위한 시제품 개발에 필요한 사업비를 지원한다. 사피온은 데이터 센터에 이어 엣지 분야에서도 사업을 확대해갈 계획으로, 어드밴텍과 AI 엣지 컴퓨팅용 서버개발의 속도를 높일 예정이다. 사피온은 AI 반도체를 탑재한 엣지 서버용 카드를 개발하고, 어드밴텍은 사피온의 카드를 탑재한 엣지 서버 개발을 추진한다. 이를 통해 사피온은 AI 반도체의 활용 범
바로에이아이 이용덕 대표 인터뷰 AI는 각 산업 분야에서 혁신을 주도하고 있는 핵심 기술로 각광받고 있다. 이에 수많은 기업 및 관련 기관이 미래의 경쟁력을 확보하기 위해 AI 연구에 힘을 쏟는다. 그러나 이러한 연구에서 가장 큰 난관 중 하나는 바로 AI 개발을 위한 효율적인 인프라 구축이다. 이는 초기 연구 단계에서 부담스러운 과제로 작용한다. 바로에이아이는 이러한 어려움을 극복하기 위해 효율적인 인프라 운용 전략을 제안하는 기업이다. 온프레미스 인프라를 효과적으로 유지 보수하고 관리함으로써 AI 연구에 대한 현실적인 해결책을 제시하고 있다. AI 연구 가속할 동력 제공하다 AI 연구를 진행하기 위한 인프라 구축에는 어려움이 존재한다. 하드웨어 비용 부담, 데이터 보안과 규정 준수의 복잡성, 유지 보수 및 관리에 따른 시간과 노력 등이 그것이다. 특히 AI 연구를 수행하는 초기 과정에서 온프레미스 인프라의 필요성은 여러 측면에서 중요하다. 담당자는 학습 모델을 훈련시키기 위해 온프레미스 인프라에 구축된 하드웨어 자원을 즉시 활용할 수 있어야 한다. 성능과 대역폭 측면에서도 온프레미스 인프라는 매력적인 선택지다. 최근 대용량 데이터를 다루거나 높은 성능이
HBM3e로 초당 4.8테라바이트의 속도로 141GB 메모리 제공 엔비디아가 엔비디아 HGX H200을 출시한다고 밝혔다. 이 플랫폼은 엔비디아 호퍼 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU를 탑재하고 있다. 따라서 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리한다. 이번 HGX H200 출시로 AI 컴퓨팅 플랫폼을 가속화할 것으로 기대된다. 엔비디아 H200은 HBM3e를 제공하는 최초의 GPU다. HBM3e은 더 빠르고 대용량 메모리로 생성형 AI와 대규모 언어 모델의 가속화를 촉진하는 동시에 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200은 HBM3e를 통해 초당 4.8테라바이트의 속도로 141GB의 메모리를 제공하며, 이전 모델인 엔비디아 A100에 비해 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다. 세계 유수 서버 제조업체와 클라우드 서비스 제공업체의 H200 기반 시스템은 2024년 2분기에 출시될 예정이다. 엔비디아 하이퍼스케일과 HPC 담당 부사장인 이안 벅(Ian Buck)은 "생성형 AI와 HPC 애플리케이션으로 인텔리전스를 생성하기 위해서는 대규모의
“인프라 구축 및 운영 비용 최대 40% 절감 효과 가져다줄 것” SK텔레콤(SKT)이 기업 IT 인프라 구축 및 운영 관련 비용 감축이 가능한 ARM 기반 클라우드 인프라(이하 클라우드 어플라이언스) 사업에 집중할 예정이다. 클라우드 어플라이언스는 높은 코어 집적도와 전력 효율성을 지닌 ARM을 토대로 서버에 상용 소프트웨어가 최적화되도록 SKT 가상화 기술을 접목한 제품이다. SKT 관계자에 의하면 해당 기술은 기업이 자체 운영 인프라 환경뿐만 아니라 모든 클라우드 환경에서 활용 가능하다. SKT는 기술 출시를 위해 서버 제조사 한국 HPE로부터 ARM 기반 서버를 공급받은 후 소프트웨어 업체 티맥스소프트의 웹 및 애플리케이션 서버(WEB·WAS) 솔루션을 탑재하는 등 협력관계를 구축했다. 이어 기술 검증을 진행했는데, 검증 결과에 따르면 기존 x86 기반 서버 대비 투자·운영비 등 총 비용이 최대 40%가량 절감된 것으로 나타났다. 더불어 동일 전력 대비 성능은 최대 120%에 달했다. SKT는 이를 통해 랙 하나당 연간 탄소배출량 41.7톤이 감축될 것이라 발표했다. 이는 기업이 탄소절감 인증 실적을 활용할 수 있기 때문에 ESG 경영에도 관여할 것으