배너
닫기

일반뉴스

배너

클라우드플레어, LLM 공격 대응하는 ‘AI용 방화벽’ 출시

URL복사

 

클라우드플레어(Cloudflare)는 5일 거대언어모델(LLM)을 상대로 한 남용과 공격을 식별하는 새로운 보호 레이어(layer)인 'AI용 방화벽'을 선보인다고 밝혔다. 클라우드플레어는 글로벌 네트워크를 기반으로 AI용 방화벽을 통해 고객이 LLM 내에 있는 기능, 주요 데이터, 영업 비밀을 노리는 공격에 대응할 수 있도록 지원한다는 방침이다.

 

최근 실시된 한 조사에 따르면 최고 경영진 4명 중 1명만이 자신의 조직이 AI로 인한 위험에 대비하고 있다고 확신하는 것으로 나타났다. LLM을 보호하는데 있어 사용자 상호작용을 제한하는 것은 거의 불가능하다. 

 

또한 LLM은 동일한 입력 값이 주어져도 다양한 결과물을 생성할 수 있는 등 사전 설계에 의해 미리 결정되지 않는다는 점으로 인해 처음부터 적절한 보안 시스템을 구축하는 것이 어렵다. 이 때문에 LLM은 위협 행위자에게 무방비 상태가 되어 조직이 모델 조작, 공격 및 남용에 취약한 상태로 노출되는 결과를 야기한다.

 

매튜 프린스 클라우드플레어 CEO 겸 공동 창업자는 "클라우드플레어는 자사 AI용 방화벽을 통해 AI 환경의 보안 구축을 처음부터 돕고 있다"며 "AI 모델을 위한 최초의 보호막 중 하나를 제공해 기업이 기술 발전이 선사하는 기회를 활용함과 동시에 보호받을 수 있도록 지원하고자 한다"고 말했다.

 

조직의 보안 팀은 클라우드플레어의 AI용 방화벽을 통해 AI 모델의 무기로 사용될 수 있는 잠재적 취약성으로부터 LLM 애플리케이션을 보호할 수 있다. AI용 방화벽은 클라우드플레어의 워커스AI(Workers AI)에서 실행되는 모든 LLM 앞에 배포 가능하다. 사용자가 제출한 프롬프트를 스캔하고 평가해 모델을 악용하고 데이터를 추출하려는 시도를 더 잘 식별할 수 있다.

 

클라우드플레어의 글로벌 네트워크를 기반으로 구축된 AI용 방화벽은 엔드 유저와 가까운 곳에 배포되기 때문에 모델의 남용으로부터 거의 즉각적으로 보호할 수 있는 전례 없는 기능을 제공한다. 또 클라우드플레어의 워커스AI에서 LLM을 실행하는 모든 고객은 AI용 방화벽을 통해 무료로 보호를 받을 수 있으며, 이를 통해 프롬프트 주입 및 데이터 유출 등의 우려 사항을 방지할 수 있다.
 
시장 조사 기관 가트너에 따르면 생성형 AI 애플리케이션은 단독으로 보호할 수 없으며 생성형 AI 전용 보안 제어 기능을 계획하고 배포하기 전에 반드시 클라우드, 데이터 및 애플리케이션 보안의 견고한 기반이 마련되어야 한다. 클라우드플레어의 AI용 방화벽은 기존의 포괄적인 보안 플랫폼에 레이어를 추가해 새로운 기술로 인한 위협을 궁극적으로 차단한다고 회사측은 전했다.

 

헬로티 이창현 기자 |










배너









주요파트너/추천기업