레드햇과 메타는 엔터프라이즈용 생성형 AI 발전을 촉진하기 위해 협력한다고 10일 발표했다. 이번 협력은 레드햇이 레드햇 AI와 고성능 vLLM 추론 서버에서 혁신적인 라마 4(Llama 4) 모델 그룹을 0일차부터 지원하는 것에서 시작됐다. 이를 기반으로 레드햇과 메타는 라마 스택(Llama Stack)과 vLLM 커뮤니티 프로젝트의 연계를 주도해 오픈 생성형 AI 워크로드의 통합 프레임워크를 촉진한다. 가트너에 따르면 2026년까지 독립 소프트웨어 벤더(ISV)의 80% 이상이 엔터프라이즈용 애플리케이션에 생성형 AI 기능을 내장할 것으로 예상되며 이는 현재 1% 미만에서 크게 증가한 수치이다. 이는 레드햇과 메타가 선도하고 있는 개방적이고 상호 운용 가능한 기반 기술의 필요성을 보여준다. 양사의 협력은 다양한 플랫폼, 클라우드 및 AI 가속기 전반과 주요 API 계층 및 AI의 실행 단계인 추론 제공시 더욱 원활한 생성형 AI 워크로드 기능에 대한 요구사항을 직접적으로 해결한다. 레드햇과 메타는 핵심 오픈소스 프로젝트들에 주요 기여자로 적극 참여하며 개방형 혁신에 대한 강한 의지를 보여주고 있다. 이번 협력의 일환으로 레드햇은 라마 스택 프로젝트에 적극
레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 및 구글의 개방형 모델 제품군인 젬마(Gemma)를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 오늘 발표했다. 양사는 AI 확장을 위한 엔터프라이즈급 사용 사례 개선을 위해 ▲오픈소스 프로젝트 ‘llm-d’ 론칭 ▲구글 클라우드 TPU 및 GPU 기반 가상머신에서 vLLM 지원 통해 AI 추론 성능 강화 ▲‘젬마 3’ 모델 배포판에서 vLLM에 대한 0일차 지원 제공 ▲구글 클라우드 상에서 레드햇 AI 인퍼런스 서버 지원 ▲레드햇이 구글 A2A 프로토콜의 커뮤니티 기여자로서 참여해 에이전틱 AI 활성화 등의 분야에서 협력할 예정이다. 젬마 3를 시작으로 레드햇은 구글의 개방형 모델 제품군인 젬마의 초기 테스터로 참여해 vLLM에 대한 즉각적인 지원을 제공한다. vLLM은 생성형 AI 애플리케이션의 출력 속도를 높이는 오픈소스 추론 서버다. 레드햇은 vLLM의 선도적 상용 기여자로서 생성형 AI 애플리케이션을 위한 보다 비용 효율적이고 반응성(responsive)이 뛰어난 플랫폼을 제공한다. 또한 구글 AI 포트폴리오를 지원하는 고성능 AI 가속기인 구글