클라우드플레어가 서버리스 AI 추론 플랫폼인 ‘워커스 AI(Workers AI)’와 AI 애플리케이션 구축을 위한 여러 도구에 신규 기능을 도입했다고 30일 밝혔다. 이를 통해 개발자가 더욱 빠르고 향상된 성능의 AI 애플리케이션을 손쉽게 구축할 수 있도록 지원한다. 워커스 AI는 전 세계 어디에서나 사용자와 가까운 곳에서 AI 추론을 실행하고 글로벌 AI 애플리케이션을 구축할 수 있는 플랫폼이다. 이번 도입으로 워커스 AI에 구축된 애플리케이션은 추론 속도 향상, 대형 모델에 대한 지원, 성능 분석 등의 혜택을 누릴 수 있게 된다. 대형언어모델(LLM)의 규모가 점점 작아지고 성능은 향상됨에 따라 네트워크 속도가 고객의 채택과 원활한 AI 상호 작용에 장애물이 될 것으로 예상된다. 클라우드플레어의 글로벌 분산 네트워크는 네트워크 지연 시간을 최소화해 일반적으로 제한된 데이터센터에 집중돼 있는 자원으로 구성된 다른 네트워크와 차별화된다. 클라우드플레어의 서버리스 추론 플랫폼인 워커스 AI는 현재 전 세계 180여 개의 도시에 GPU를 배치해 전 세계 엔드유저에게 짧은 대기 시간을 제공하도록 설계됐다. 워커스 AI는 이러한 GPU 네트워크를 통해 모든 AI 플
클라우드플레어는 허깅페이스에서 클릭 한 번으로 클라우드플레어의 글로벌 네트워크에 AI 애플리케이션을 배포할 수 있도록 지원한다고 밝혔다. 클라우드플레어는 워커스 AI(Workers AI)를 일반 사용자도 이용할 수 있게 됨에(General Availability, GA) 따라, 허깅페이스 허브와 통합되어 모델 배포를 지원하는 최초의 서버리스 추론 파트너가 된다. 이로써 개발자가 인프라를 관리하거나 사용하지 않는 컴퓨터 용량에 대한 비용을 지불할 필요없이 전 세계를 대상으로 빠르고 쉽고 경제적으로 AI를 배포할 수 있도록 지원한다는 방침이다. AI 혁신의 급속한 진전에도 불구하고 AI가 가진 잠재력과 기업에 선사하는 가치 사이에는 여전히 간극이 존재한다. 조직과 개발자는 GPU 또는 인프라를 설정 및 관리하거나 유지보수할 필요 없이도 합리적인 가격에 신속하게 실험하며 또 이 과정을 반복할 수 있어야 한다. 기업은 속도, 보안, 성능, 통합 가시성, 규정 준수를 지원하는 간편한 플랫폼을 통해 혁신적인 애플리케이션을 고객에게 더 빠르게 제공할 수 있어야 한다. 매튜 프린스 클라우드플레어 CEO 겸 공동 창업자는 "최근 생성형 AI 붐으로 인해 다수의 기업들이 AI