레드햇은 하이브리드 클라우드 전반에서 AI 솔루션의 개발 및 배포를 가속화할 수 있도록 설계된 제품 및 서비스 포트폴리오인 레드햇 AI의 최신 업데이트를 27일 발표했다. 레드햇 AI는 모델 학습 및 추론을 위한 엔터프라이즈 AI 플랫폼으로 향상된 효율성과 간소화된 사용자 경험, 하이브리드 클라우드 환경 어디서든 배포할 수 있는 유연성을 제공한다. 기업은 점차 다양해지는 활용 사례를 해결하기 위해 대규모 언어 모델(LLM)의 배포 비용을 절감하는 방법을 모색하고 있다. 하지만 여전히 이 같은 모델을 자사의 고유 데이터(proprietary data)와 통합하는 동시에 데이터 센터, 퍼블릭 클라우드, 엣지 등 데이터가 존재하는 모든 위치에서 데이터에 접근할 수 있어야 한다는 과제에 직면해 있다. 레드햇 오픈시프트 AI(Red Hat OpenShift AI)와 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, 이하 RHEL AI)를 포함하고 있는 레드햇 AI는 사용자가 비즈니스별 데이터에 맞춰 보다 효율적이고 최적화된 모델을 채택하고 하이브리드 클라우드 전반에 배포해 광범위한 가속 컴퓨팅 아키텍처에서 학습 및 추론을 수행할 수
레드햇은 9일 ‘레드햇 엔터프라이즈 리눅스 AI(이하 RHEL AI)’의 정식 출시를 발표했다. RHEL AI는 사용자가 엔터프라이즈 애플리케이션을 지원하기 위해, 생성형 AI 모델을 원활하게 개발·테스트·배포할 수 있도록 지원하는 파운데이션 모델 플랫폼이다. 이 플랫폼은 오픈소스 라이센스를 기반으로 한 그래니트 LLM(Granite LLM, 대규모 언어 모델) 제품군과 LAB(Large-scale Alignment for chatbot, 챗봇을 위한 대규모 정렬) 방법론에 기반한 인스트럭트랩(InstructLab) 모델 정렬 도구를 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징 돼 있다. 생성형 AI의 잠재력은 무한하지만 LLM을 조달 및 훈련, 미세 조정하는 데에는 천문학적인 비용이 발생한다. 여기에 조직의 특정 데이터 및 요구사항에 맞게 조정하기 위해 데이터 사이언티스트 등 전문가를 필요로 할 경우 추가 비용이 발생할 수 있다. 어떤 애플리케이션에 어떤 모델을 선택하든 기업의 고유 데이터 및 프로세스에 맞게 조정하는 작업이 요구되므로 효율성과 민첩성이 실제 프로덕션 환경에서 AI의 핵심이