초거대 AI 시대의 인프라 소프트웨어와 클라우드의 발전 방안 발표해 모레가 지난 2일 삼성동 그랜드 인터컨티넨탈 서울 파르나스에서 열린 'kt 클라우드 서밋 2024’에 연사로 참가해 초거대 AI 시대의 인프라 소프트웨어와 클라우드의 발전 방안에 대해 발표했다. 작년에 이어 두 번째로 열린 이 행사는 올해 ‘AICT for all Business with Cloud·IDC’라는 슬로건을 기반으로 인공지능(AI), 클라우드, 인터넷데이터센터(IDC) 분야의 산업 동향과 전략, 기술 중심의 서비스 구현 및 고객 경험을 소개했다. AICT는 통신 역량에 IT와 AI를 더해 IT 관련 전 산업군에서 AI 적용을 확대하는 디지털 혁신 파트너가 되겠다는 KT의 새로운 성장 전략이다. 모레 조강원 대표는 주제발표를 통해 "초거대 AI 시대를 맞아 전체 AI 기술 스택에서 인프라, 특히 인프라 SW의 역할이 본질적으로 바뀌고 있다. 계산 자원을 잘 활용하는 것이 초거대 AI의 품질을 좌우하는 핵심 요소"라며, "컴퓨팅 인프라를 키우고 활용하는 능력을 개발해 수백, 수천 개의 GPU를 동시에 잘 활용하는 것이 중요하다"고 설명했다. 조 대표는 "최고 수준의 LLM을 빠르게
AMD MI300X 기반 SR685a V3 8GPU 서버 론칭..."기업 AI 전환 가속화 도와" 씽크애자일 MX 455 V3 엣지 솔루션, 씽크시스템 SD535 V3 서버도 함께 공개 레노버와 AMD가 생성형 AI 및 거대언어모델(LLM) 워크로드에 특화된 새로운 서버 및 엣지 솔루션을 이달 8일 발표했다. 양사는 금융·의료·에너지·기후연구·운송 등 대량의 데이터 세트를 관리해야 하는 분야에 IT 인프라 솔루션을 제공하기 위해 이번 신제품 설계에 협력했다. 그 첫 번째 제품은 씽크시스템(ThinkSystem) SR685a V3 GPU 서버로, 대규모 데이터 세트를 처리하기 위한 대용량 메모리와 I/O 대역폭을 제공한다. 이 제품은 엔터프라이즈 프라이빗 온프레미스 AI 및 퍼블릭 AI 클라우드 서비스 제공자 등에 최적화된 솔루션으로 알려졌다. 씽크시스템 SR685a V3에는 AMD 4세대 EPYC CPU와 AMD 인스팅트 MI300X GPU가 이식됐다. 여기에 AMD 인피니티 패브릭을 통해 상호 연결되며, 1.5TB 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능 그리고 공기 냉각 기술을 담았다. 현재 엔비디아 HGXTM GPU
아이에스시(ISC)가 2024년 1분기 매출 351억 원, 영업이익 86억 원(영업이익률 25%)을 기록했다고 밝혔다. 전 분기 대비 매출액은 40%, 영업이익은 220% 증가했다. 아이에스시는 실적의 주요 요인으로 지난해부터 꾸준한 성장세를 보이고 있는 비메모리 반도체용 제품의 매출 상승을 꼽았다. 특히 데이터센터용 AI 서버 CPU·GPU 소켓과 온디바이스 AI 반도체 테스트 소켓 등 AI 반도체 관련 매출이 전사 매출의 25%를 넘는 등 고부가가치 제품의 매출 증가가 수익성 증가의 주요인이라는 분석이다. ISC는 관계자는 “반도체 업황 회복과 함께 확대되고 있는 비메모리 반도체 및 AI 반도체 관련 수요에 힘입어 지난해 4분기부터 성장세를 이어나갈 수 있었다”며 “반도체 경기 회복이 본격화되는 2분기부터는 매출, 영업이익 모두 큰 폭의 성장세가 예상된다”고 말했다. 헬로티 함수미 기자 |
컨테이너화 채택함으로써 원활한 확장성과 클라우드 마이그레이션 제공 고려 스트라드비젼이 AI 학습 자원의 관리를 최적화하기 위해 디지털 혁신을 가속화한다. 이번 디지털 혁신의 핵심은 비용 효율성 극대화를 기본으로 고객에게 시간적, 서비스 품질적 측면에서 실질적인 혜택을 제공하는 것이 목표다. 이를 위해 스트라드비젼은 전략적으로 컨테이너화를 채택했다. 향후 원활한 확장성과 클라우드 마이그레이션 제공을 고려한 것으로, 서버, 스토리지, 네트워킹과 같은 핵심 자원을 최적화하기 위함이다. 스트라드비젼은 오픈소스 컨테이너 시스템인 쿠버네티스 관리 플랫폼, ‘수세 랜처(SUSE Rancher)’를 기반으로 하는 최첨단 컨테이너 기술을 활용해 워크로드에 맞춰 필요한 컴퓨팅 자원을 할당, 개발자가 GPU 자원을 효과적으로 공유하도록 했다. 이 접근 방식을 통해 스트라드비젼은 GPU 자원 활용도를 높였으며, 원가절감을 통해 고객에게 상당한 비용 절감 효과를 제공하게 됐다. 즉각적인 서비스 제공 및 고객 요구에 맞는 맞춤형 솔루션과 함께 강조되는 것이 속도인데, 스트라드비젼은 컨테이너 기술 활용을 통해 최소화한 인력 구성으로 고객에게 안정적인 서비스를 보장하게 된 것이다. 잭
SMX5 타입 H100 GPU 각 8개씩 탑재한 서버를 대규모 클러스터로 구성해 지코어는 4일 서울 중구 더 플라자호텔에서 '한국 AI시장에 가속도 붙여줄 새로운 시작'이라는 주제로 기자간담회를 갖고, 국내 최초로 엔비디아의 H100을 기반으로 한 AI 퍼블릭 클라우드 서비스를 오픈, 한국시장에 첫 선을 보인다고 밝혔다. 지코어는 기업의 AI 도입과정 모든 단계에 도움을 주기 위해 완전 자동화된 AI 인프라, 다양한 관리도구, 안전한 보안체계 등을 갖춘 클라우드 플랫폼 환경을 서비스하고 있다. 룩셈부르크에 본사를 두고 지코어는 6개 대륙에 걸쳐 자체 글로벌 IT 인프라를 관리하고 있다. 글로벌 네트워크는 전 세계에 걸쳐 안정적인 티어 4 및 티어 3 데이터 센터에 위치한, 총 110Tbps 이상의 용량을 갖춘 160개 이상의 PoP로 구성돼 있다. 이날 기자간담회에는 자크 플리스(Jacques Flies) 주한룩셈부르크 초대 대사 내정자가 참석해 축사를 전했다. 자크 플리스 초대 대사 내정자는 "지코어 한국 진출은 국내 기업에 혁신적인 기술을 전하고 성과에 기여할 것으로 기대된다. 한국-룩셈부르크 간 비즈니스 협력과 투자가 급진적으로 증가하는 가운데, 지코어
미래 LLM(대형 언어 모델) 인프라에도 적합한 핵심 빌딩 블록 제공 슈퍼마이크로컴퓨터(이하 슈퍼마이크로)가 생성형 AI의 도입을 가속화하기 위한 슈퍼클러스터 포트폴리오를 발표했다. 최신 솔루션은 현재는 물론 미래의 LLM(대형 언어 모델) 인프라에도 적합한 핵심 빌딩 블록을 제공한다. 슈퍼마이크로의 탁월한 슈퍼클러스터 솔루션 3종은 현재 생성형 AI 워크로드에 사용 가능하다. 4U 수냉식 냉각 시스템 또는 8U 공냉식 냉각 시스템은 강력한 LLM 학습 성능은 물론 대규모 배치(Batch)와 대용량 LLM 추론용으로 특별히 제작 및 설계됐다. 마지막으로 1U 공냉식 슈퍼마이크로 엔비디아 MGXTM 시스템을 갖춘 슈퍼클러스터는 클라우드 규모 추론에 최적화해 있다. 찰스 리앙(Charles Liang) 슈퍼마이크로 사장 겸 CEO는 "AI 시대에 컴퓨팅 단위는 단순히 서버 수가 아닌 클러스터로 측정된다. 슈퍼마이크로는 글로벌 제조량을 월 5000개의 랙으로 확장해 빠르게 완전한 생성형 AI 클러스터를 제공할 수 있다"며, "확장 가능한 클러스터 빌딩 블록에 64노드 클러스터는 400Gb/s 엔비디아 퀀텀-2 인피니밴드 및 스펙트럼-X 이더넷 네트워킹을 갖춰 72
양사는 협력으로 고성능 엣지 AI시장 공략에 나설 계획 사피온은 16일인 오늘 어드밴텍 코리아와 함께 수요연계를 통한 시스템 반도체 시제품 제작지원사업인 ‘콤파스(COMPASS)’ 시제품 제작 지원 대상자로 선정됐다고 밝혔다. 양사는 협력을 통해 고성능 엣지 AI시장 공략에 나선다. 엣지 AI는 서비스가 필요한 장치 혹은 제품에서 인공지능 응용이 직접 구동되는 것을 의미한다. 클라우드 시스템과 비교해 엣지 AI의 기술을 통해 저지연 실시간 서비스 및 개인 정보 보안 강화 등이 가능하다. 콤파스는 산업통상자원부 산하 한국산업기술기획평가원이 운영하고 한국반도체연구조합이 주관하는 수요연계를 통한 시스템반도체시제품 제작지원사업으로서, 시스템 반도체 분야 수요가 있는 기업과 기술을 가진 반도체 공급 기업을 매칭하고, 상용화를 위한 시제품 개발에 필요한 사업비를 지원한다. 사피온은 데이터 센터에 이어 엣지 분야에서도 사업을 확대해갈 계획으로, 어드밴텍과 AI 엣지 컴퓨팅용 서버개발의 속도를 높일 예정이다. 사피온은 AI 반도체를 탑재한 엣지 서버용 카드를 개발하고, 어드밴텍은 사피온의 카드를 탑재한 엣지 서버 개발을 추진한다. 이를 통해 사피온은 AI 반도체의 활용 범
바로에이아이 이용덕 대표 인터뷰 AI는 각 산업 분야에서 혁신을 주도하고 있는 핵심 기술로 각광받고 있다. 이에 수많은 기업 및 관련 기관이 미래의 경쟁력을 확보하기 위해 AI 연구에 힘을 쏟는다. 그러나 이러한 연구에서 가장 큰 난관 중 하나는 바로 AI 개발을 위한 효율적인 인프라 구축이다. 이는 초기 연구 단계에서 부담스러운 과제로 작용한다. 바로에이아이는 이러한 어려움을 극복하기 위해 효율적인 인프라 운용 전략을 제안하는 기업이다. 온프레미스 인프라를 효과적으로 유지 보수하고 관리함으로써 AI 연구에 대한 현실적인 해결책을 제시하고 있다. AI 연구 가속할 동력 제공하다 AI 연구를 진행하기 위한 인프라 구축에는 어려움이 존재한다. 하드웨어 비용 부담, 데이터 보안과 규정 준수의 복잡성, 유지 보수 및 관리에 따른 시간과 노력 등이 그것이다. 특히 AI 연구를 수행하는 초기 과정에서 온프레미스 인프라의 필요성은 여러 측면에서 중요하다. 담당자는 학습 모델을 훈련시키기 위해 온프레미스 인프라에 구축된 하드웨어 자원을 즉시 활용할 수 있어야 한다. 성능과 대역폭 측면에서도 온프레미스 인프라는 매력적인 선택지다. 최근 대용량 데이터를 다루거나 높은 성능이
HBM3e로 초당 4.8테라바이트의 속도로 141GB 메모리 제공 엔비디아가 엔비디아 HGX H200을 출시한다고 밝혔다. 이 플랫폼은 엔비디아 호퍼 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU를 탑재하고 있다. 따라서 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리한다. 이번 HGX H200 출시로 AI 컴퓨팅 플랫폼을 가속화할 것으로 기대된다. 엔비디아 H200은 HBM3e를 제공하는 최초의 GPU다. HBM3e은 더 빠르고 대용량 메모리로 생성형 AI와 대규모 언어 모델의 가속화를 촉진하는 동시에 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200은 HBM3e를 통해 초당 4.8테라바이트의 속도로 141GB의 메모리를 제공하며, 이전 모델인 엔비디아 A100에 비해 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다. 세계 유수 서버 제조업체와 클라우드 서비스 제공업체의 H200 기반 시스템은 2024년 2분기에 출시될 예정이다. 엔비디아 하이퍼스케일과 HPC 담당 부사장인 이안 벅(Ian Buck)은 "생성형 AI와 HPC 애플리케이션으로 인텔리전스를 생성하기 위해서는 대규모의
“인프라 구축 및 운영 비용 최대 40% 절감 효과 가져다줄 것” SK텔레콤(SKT)이 기업 IT 인프라 구축 및 운영 관련 비용 감축이 가능한 ARM 기반 클라우드 인프라(이하 클라우드 어플라이언스) 사업에 집중할 예정이다. 클라우드 어플라이언스는 높은 코어 집적도와 전력 효율성을 지닌 ARM을 토대로 서버에 상용 소프트웨어가 최적화되도록 SKT 가상화 기술을 접목한 제품이다. SKT 관계자에 의하면 해당 기술은 기업이 자체 운영 인프라 환경뿐만 아니라 모든 클라우드 환경에서 활용 가능하다. SKT는 기술 출시를 위해 서버 제조사 한국 HPE로부터 ARM 기반 서버를 공급받은 후 소프트웨어 업체 티맥스소프트의 웹 및 애플리케이션 서버(WEB·WAS) 솔루션을 탑재하는 등 협력관계를 구축했다. 이어 기술 검증을 진행했는데, 검증 결과에 따르면 기존 x86 기반 서버 대비 투자·운영비 등 총 비용이 최대 40%가량 절감된 것으로 나타났다. 더불어 동일 전력 대비 성능은 최대 120%에 달했다. SKT는 이를 통해 랙 하나당 연간 탄소배출량 41.7톤이 감축될 것이라 발표했다. 이는 기업이 탄소절감 인증 실적을 활용할 수 있기 때문에 ESG 경영에도 관여할 것으
발열과 소음을 최적화로 사용 시 공간 제약 없는 수냉각 시스템 개발 바로에이아이가 AI TECH+ 2023에 참가해 자사의 수냉식 멀티 GPU 서버 포세이돈 제품군을 선보였다. 바로에이아이의 '포세이돈'은 높은 성능과 쾌적한 사용성을 갖춘 수냉식 멀티 GPU 서버다. 수냉각 시스템은 발열과 소음을 최적화해 사무실, 연구실 등 공간 제약없이 사용하도록 설계됐다. 이에 포세이돈의 장점 중 하나는 서버실을 따로 두지 않아도 된다는 것이다. 포세이돈 라인업 중 하나인 '알파(Alpha)'는 엔비디아4090 GPU가 장착돼 연구자의 개발 과제에 대해 데이터가 커지기까지 범용적으로 사용하도록 최적화한 GPU 가속 시스템이다. 엔비디아4090 24GB 기반 시스템은 초기 연구자가 손쉽게 접근하고 사용 가능한 시스템으로, 유연한 전환가 확장이 가능하다. '쿼드로(Quadro)'는 엔비디아 6000ada GPU가 장착돼 그래픽스 및 렌더링, 시뮬레이션과 같은 대규모 데이터 셋의 워크플로우 성능을 향상시킨다. 쿼드로는 디자이너, 엔지니어, 과학자 등의 직종에서 필요한 그래픽 컴퓨팅 및 워크플로우를 제공한다. 바로에이아이는 시스템 소프트웨어 및 응용 프로그램에서 멀티 GPU가
애플리케이션에서 손실 최소화하고 신뢰성 및 사용 편의성 높여 인피니언 테크놀로지스(이하 인피니언)는 TOLL(TO leadless) 패키지를 적용한 실리콘 카바이드(SiC) CoolSiC MOSFET 650V 제품군을 출시했다. 새로운 SiC MOSFET은 인피니언의 포괄적인 CoolSiC 포트폴리오를 강화하며, 서버, 텔레콤 인프라, 에너지 저장 시스템, 배터리 포메이션 솔루션 등의 애플리케이션에서 손실을 최소화하고 높은 신뢰성을 달성하며 사용 편의성을 높이도록 설계됐다. CoolSiC 650V 고성능 트렌치 기반 SiC MOSFET은 다양한 애플리케이션을 지원하도록 다양한 구성으로 제공된다. JEDEC 인증 TOLL 패키지의 새로운 제품군은 낮은 기생 인덕턴스를 특징으로 해 높은 스위칭 주파수, 낮은 스위칭 손실, 우수한 열 관리 및 자동 어셈블리를 가능하게 한다. 컴팩트한 폼팩터로 보드 공간을 효과적으로 사용할 수 있어 시스템 디자이너는 우수한 전력 밀도를 달성한다. 650V CoolSiC MOSFET은 가혹한 환경에서 신뢰성을 자랑하므로, 반복적으로 하드 정류를 하는 토폴로지에 적합하다. 내장된 .XT 인터커넥트 기술은 열 저항과 열 임피던스를 낮춤으
산업용 디바이스 서버 ‘SG-1161RIL/ALL’ 및 아이솔레이션 컨버터 ‘CS-428i V2.0’ 출시 시스템베이스가 디바이스 서버 SG-1161RIL/ALL과 아이솔레이션 컨버터 CS-428i V2.0을 출시했다고 밝혔다. SG-1161RIL/ALL은 이더넷 네트워크를 통해 RJ45형 시리얼 포트 활용이 가능한 16포트 디바이스 서버다. 시리얼 통신 최고 속도 921.6Kbps를 발휘하며, RS232·422·485 시리얼 통신 규격 및 ModBus를 지원하는 19랙형 디바이스다. 해당 제품에는 이중 전원 시스템이 장착됐는데, 이는 사용자 사용 환경에 맞춰 터미널 블록 ,DC 전원 어댑터 중 선택해 전원단 구성이 가능한 장점이 있다. 특히 DC 어댑터는 스크류형 잠금(Locking) 방식을 적용해 전원 플러그가 탈거되지 않도록 안정성을 높였다. 또 최저 온도 –40℃에서 최고 온도 85℃까지 활용 가능한 설계를 갖췄고, ESD 방지 기능과 과전류 방지를 위한 Surge 기능도 적용했다. SG-1161RIL/ALL는 병원·공장·빌딩 등 산업 분야에서 제어·모니터링·자동화 등 영역에 활용될 것으로 전망된다. 한편 아이솔레이션 컨버터 CS-428i V2.0은
브로드컴, HBA와 관련해 경쟁사와의 상호 운용성 등 보장 약속해 유럽연합(EU) 경쟁총국이 12일(현지시간) 미 반도체회사 브로드컴의 VM웨어 인수를 최종 승인했다. EU 집행위원회(이하 집행위)는 이날 보도자료를 내고 브로드컴의 610억 달러 규모 인수 거래를 조건부 승인했다고 밝혔다. 집행위가 제기한 경쟁 제한 우려 해소를 위해 브로드컴이 제시한 시정 방안을 이행하는 대가로 기업결합을 승인했다는 의미다. 브로드컴은 파이버 채널(FC)과 서버를 연결하는 입출력 어댑터인 HBA(Host Bus Adapter)와 관련해 공정한 경쟁을 위해 경쟁사와의 상호 운용성 등을 보장하겠다고 약속했다. 앞서 EU 경쟁총국은 작년 12월 브로드컴의 VM웨어 인수로 서버 부문 경쟁이 약화할 수 있다며 심층 조사를 개시한 바 있다. 이와 별개로 현재 미 연방거래위원회(FTC)와 영국 경쟁시장청(CMA)도 각각 브로드컴-VM웨어의 기업결합 조사를 진행 중이다. 헬로티 서재창 기자 |
딥엑스 고성능·저전력 AI 반도체 4종, 삼성 파운드리 5나노, 14나노, 28나노 공정 활용 딥엑스는 ‘2023 삼성 파운드리 포럼(SFF)에 참가해 ‘AI를 모든 곳에 존재하게 하는 기술’이란 주제로 AI 반도체의 글로벌 스탠다드를 알렸다. 이번 행사의 발표를 맡은 김녹원 대표는 삼성 파운드리와 협력을 통해 AI 반도체의 원천기술 국산화에 도전하고 있으며 이를 위해서는 세계 일류의 기술이어야 한다고 말했다. 딥엑스는 현재 다양한 엣지 및 서버 AI 응용 분야를 공략하기 위한 고성능·저전력 AI 반도체 4종을 삼성 파운드리 5나노, 14나노, 28나노 공정을 활용해 개발을 완료했다. 이는 데이터 처리량이 적은 초소형 센서부터 CCTV, 머신비전, 가전, 로봇뿐 아니라 고성능 AI 알고리즘 연산을 요구하는 자율주행차, 스마트 팩토리, AI 연산처리 서버까지 체급별로 최적화된 AI 연산 성능과 다양한 기능 조합으로 구성돼 있다. 현재 딥엑스는 모든 검증을 마친 후 고객사에 ES(Evaluation Sample) 버전으로 배포해 응용 제품의 양산 개발을 위한 실전 평가를 진행하고 있다. 딥엑스의 기술 혁신은 GPU에서나 동작 가능했던 고성능·최신 AI 기술을 G