레드햇과 메타는 엔터프라이즈용 생성형 AI 발전을 촉진하기 위해 협력한다고 10일 발표했다. 이번 협력은 레드햇이 레드햇 AI와 고성능 vLLM 추론 서버에서 혁신적인 라마 4(Llama 4) 모델 그룹을 0일차부터 지원하는 것에서 시작됐다. 이를 기반으로 레드햇과 메타는 라마 스택(Llama Stack)과 vLLM 커뮤니티 프로젝트의 연계를 주도해 오픈 생성형 AI 워크로드의 통합 프레임워크를 촉진한다. 가트너에 따르면 2026년까지 독립 소프트웨어 벤더(ISV)의 80% 이상이 엔터프라이즈용 애플리케이션에 생성형 AI 기능을 내장할 것으로 예상되며 이는 현재 1% 미만에서 크게 증가한 수치이다. 이는 레드햇과 메타가 선도하고 있는 개방적이고 상호 운용 가능한 기반 기술의 필요성을 보여준다. 양사의 협력은 다양한 플랫폼, 클라우드 및 AI 가속기 전반과 주요 API 계층 및 AI의 실행 단계인 추론 제공시 더욱 원활한 생성형 AI 워크로드 기능에 대한 요구사항을 직접적으로 해결한다. 레드햇과 메타는 핵심 오픈소스 프로젝트들에 주요 기여자로 적극 참여하며 개방형 혁신에 대한 강한 의지를 보여주고 있다. 이번 협력의 일환으로 레드햇은 라마 스택 프로젝트에 적극
레드햇은 레드햇 AI 인퍼런스 서버, 레드햇 AI 서드파티 검증 모델 및 라마 스택과 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) API의 통합 그리고 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 통해 엔터프라이즈 AI에서 고객 선택권을 지속적으로 확대한다고 발표했다. 이러한 개발을 통해 레드햇은 조직이 AI 도입을 가속화하는 데 필요한 역량을 더욱 강화하는 동시에 하이브리드 클라우드 환경 전반에서 생성형 AI 제품 배포에 있어 고객에게 더 많은 선택과 신뢰를 제공한다. 포레스터에 따르면 오픈소스 소프트웨어는 기업 AI 활동을 가속화하는 촉매제가 될 것이다. AI 환경이 점점 더 복잡하고 역동적으로 성장함에 따라 레드햇 AI 인퍼런스 서버 및 서드파티 검증 모델은 효율적인 모델 추론과 레드햇 AI 플랫폼의 성능에 최적화된 검증 AI 모델 컬렉션을 제공한다. 레드햇은 라마 스택 및 MCP를 비롯한 생성형 AI 에이전트 개발을 위한 신규 API 통합을 더해 배포 복잡성을 해결하고 높은 제어력과 효율성으로 AI 이니셔티브를 가속화할 수 있도록 지원한다. 레드햇 AI 포트폴리오에 새로운 레드햇 AI 인퍼런스 서버가 포