가우디 3의 첫 대규모 상업 배포 사례...인프라 접근성 높일 것으로 보여 인텔이 IBM과 손잡고 자사 AI 가속기인 ‘인텔 가우디 3’를 클라우드 서비스에 최초로 상용 적용한다고 밝혔다. IBM 클라우드는 주요 클라우드 서비스 제공사 중 처음으로 가우디 3를 기반으로 한 AI 서비스 환경을 개시했으며, 이로써 고객들은 고성능 AI 인프라를 보다 합리적인 비용으로 활용할 수 있는 기회를 갖게 됐다. 이번 상용화는 가우디 3의 첫 대규모 상업 배포 사례로, 생성형 AI 서비스 확산을 위한 인프라 접근성을 크게 끌어올리는 계기가 될 전망이다. 인텔과 IBM은 고가의 특화 하드웨어가 필요한 AI 연산 환경에서 비용 효율이라는 기준을 제시하며, 보다 많은 기업이 AI 기술을 실질적으로 도입하도록 협력하고 있다. 가우디 3는 생성형 AI와 대규모 언어모델 추론, 파인튜닝 등 고성능 연산을 요구하는 워크로드를 지원하도록 설계됐다. 특히 멀티모달 LLM, RAG(검색 증강 생성) 등 최신 AI 트렌드에 최적화된 아키텍처를 기반으로 한다. 개방형 개발 프레임워크 지원 또한 가우디 3의 장점 중 하나로, 다양한 개발 환경에 유연하게 대응할 수 있다는 평가다. 인텔에 따르면
이전 세대 대비 가상 CPU당 최대 80% 성능 향상 제공 AMD가 자사의 5세대 에픽(EPYC) 프로세서를 구글 클라우드의 차세대 가상 머신(VM) 인스턴스에 성공적으로 공급했다. 현지 시각 4월 9일 발표된 이 소식은 AMD의 최신 서버용 프로세서가 퍼블릭 클라우드 환경에서도 본격적으로 채택되기 시작했음을 알리는 중요한 이정표다. 이번에 새롭게 선보인 구글 클라우드의 C4D와 H4D 인스턴스는 각각 범용 컴퓨팅 워크로드와 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화한 제품이다. C4D 인스턴스는 AMD의 최신 아키텍처인 ‘Zen 5’를 기반으로 하며, 구글 클라우드의 자체 테스트 결과에 따르면, 이전 세대 대비 가상 CPU당 최대 80%의 성능 향상을 제공한다. 특히 AI 추론 작업이나 웹 서비스, 데이터 분석과 같은 일반적 클라우드 워크로드에 유용하다. HPC에 특화한 H4D 인스턴스는 AMD 에픽 프로세서와 구글 클라우드의 RDMA(Remote Direct Memory Access) 기술을 기반으로 설계돼 수만 개의 코어 단위로도 성능 저하 없이 확장 가능한 구조를 갖추고 있다. 이는 과학 계산이나 고난이도 AI 트레이닝 등, 연산량이 높은 환경
KT가 글로벌 AI 플랫폼 기업 팔란티어와 전략적 협력을 맺고 국내 AX(AI Transformation) 시장 공략을 본격화한다고 13일 밝혔다. 이번 파트너십을 통해 KT는 국내 최초로 팔란티어의 '월드와이드 파트너 에코시스템' 공식 멤버로 합류하게 됐다. S&P 500 기업인 팔란티어는 대규모 데이터 통합 및 분석 기술을 바탕으로 정부 및 기업의 의사 결정을 지원하는 AI 소프트웨어 플랫폼을 개발하는 기업이다. 특히 강력한 보안 기술과 실시간 AI 시스템 운영 최적화 역량을 갖추고 있어 금융, 공공, 제조 등 다양한 산업에서 활용되고 있다. KT와 팔란티어는 이번 협력을 통해 금융업을 포함한 국내 AX 시장 공략, KT 클라우드 플랫폼 ‘KT SPC’와 팔란티어 AI 솔루션의 결합, AI 플랫폼 교육 프로그램 ‘한국형 AIP Bootcamp’ 공동 개발, KT 임직원 AI·데이터 역량 강화 등의 프로젝트를 추진할 계획이다. KT는 이번 파트너십을 계기로 팔란티어의 AI 소프트웨어를 내부 운영 프로세스에 도입해 업무 효율성을 높이고 비즈니스 운영을 최적화할 방침이다. KT는 자사의 클라우드 및 네트워크 인프라와 팔란티어의 AI 솔루션을 결합해 금융
개선된 성능과 비용 효율성 갖춰...교차 리전 추론으로 지연시간 최소화 아마존웹서비스(AWS)가 차세대 생성형 AI 기반 파운데이션 모델(FM)인 '아마존 노바(Amazon Nova)'를 아시아태평양 및 유럽연합(EU) 지역에 출시했다고 7일 밝혔다. 이번 출시를 통해 서울, 도쿄, 뭄바이, 싱가포르, 시드니 등 아태 지역과 스톡홀름, 프랑크푸르트, 파리 등 유럽 주요 리전에서 해당 모델을 이용할 수 있게 됐다. 아마존 노바는 AWS가 자체 개발한 최첨단 AI 모델로, 개선된 성능과 비용 효율성을 갖춘 것이 특징이다. 특히 이번 모델은 여러 리전에 걸쳐 사용자의 요청을 자동으로 라우팅하는 ‘교차 리전 추론(Cross-Region Inference)’을 지원하며, 이를 통해 지연시간을 최소화하고 불필요한 비용 발생을 방지했다. 이번에 출시된 아마존 노바 모델은 총 세 가지다. 텍스트 전용의 초저비용 모델 '노바 마이크로(Nova Micro)', 이미지와 비디오를 포함한 멀티모달 입력을 처리하는 경제적인 모델 '노바 라이트(Nova Lite)', 그리고 다양한 업무에서 높은 정확성과 속도를 제공하는 고성능 모델 '노바 프로(Nova Pro)'다. 세 가지 모델