연말까지 2억4000만 대의 생성형 AI 스마트폰과 5450만 대의 AI PC가 출하될 것으로 예측해 가트너가 2023년 2900만 대였던 전 세계 AI 탑재 PC 및 생성형 AI 탑재 스마트폰 출하량이 2024년 말까지 총 2억9500만 대에 이를 것이라는 전망을 발표했다. 가트너에서 정의하는 AI PC란, 디바이스에서 AI 작업을 최적화하고 가속화하도록 설계된 전용 AI 가속기 또는 코어, 신경 처리 장치(NPU), 가속 처리 장치(APU) 또는 텐서 처리 장치(TPU)가 장착된 PC다. 이는 외부 서버나 클라우드 서비스에 의존하지 않고도 AI 및 생성형 AI 워크로드를 처리하는 데 있어 향상된 성능과 효율성을 제공한다. 생성형 AI 스마트폰이란, 스마트폰에서 생성형 AI 기반 기능 및 애플리케이션을 원활하게 통합하고 효율적으로 실행할 수 있도록 하는 하드웨어 및 소프트웨어 기능을 갖춰 설계된 스마트폰이다. 즉, 새롭게 파생된 콘텐츠, 전략, 디자인, 수단 등을 생성하는 기본 또는 미세 조정된 AI 모델을 로컬에서 실행하는 스마트폰이다. 관련 예시로는 구글의 제미나이 나노, 바이두의 어니, 오픈AI의 GPT-4 등이 있다. 가트너의 시니어 디렉터 애널리스
구글 "엔비디아 A100 연결한 슈퍼컴퓨터보다 빠르고 전력 효율적" 구글이 AI 모델을 학습시키기 위해 자체 개발한 AI 슈퍼컴퓨터 'TPU v4'를 공개했다. 5일(현지시간) 미 경제매체 CNBC에 따르면 이 AI 슈퍼컴퓨터에는 구글이 2016년부터 자체적으로 개발해 온 '텐서 프로세싱 유닛(Tensor Processing Units·TPU)'이라는 AI 칩 4000여개가 탑재됐다. 생성형 AI인 챗GPT와 같은 AI 모델을 학습시키기 위해서는 수천 개의 반도체 칩으로 구성된 슈퍼컴퓨터가 필요하다. 현재 AI 모델의 학습 시장은 엔비디아가 90% 이상 장악하고 있다. 전 세계 기업 대부분은 자체 AI 훈련에 엔비디아의 슈퍼컴퓨터를 이용한다. 구글은 2020년부터 이 슈퍼컴퓨터를 운영해왔으며, 지난해 공개한 초대형 언어 모델 'PaLM'도 50일간 이 시스템에서 학습했다고 설명했다. 'PaLM'은 5400억 개의 매개변수를 지닌 언어 모델이다. 특히, 구글은 슈퍼컴퓨터 TPU v4가 엔비디아의 최신 칩 A100을 연결한 슈퍼컴퓨터보다 빠르고 전력 면에서 효율적이라고 강조했다. 구글은 자체 시스템이 엔비디아 슈퍼컴퓨터보다 1.2∼1.7배가량 더 빠르고, 전력
25밀리옴의 온저항을 제공하는 MOSFET, 90암페어의 정격 전류를 제공하는 SBD TPU, APU, SST, 산업용 모터 드라이브 및 에너지 인프라 솔루션의 시스템 개발자는 효율성 증대 및 시스템 크기 및 무게 절감, 신뢰성 향상을 위해 고전압 스위칭 기술을 필요로 한다. 마이크로칩테크놀로지(이하 마이크로칩)는 업계 최저 온저항을 제공하는 3.3kV SiC MOSFET과 고성능 정격 전류를 제공하는 SiC SBD를 출시해 SiC 포트폴리오를 확장했다. 해당 디바이스는 견고성, 신뢰성 및 성능 면에서 개발자에게 이점을 제공한다. 마이크로칩은 이번 SiC 포트폴리오 확장으로 전기 운송, 재생 에너지, 항공우주 및 산업 애플리케이션을 위한 더 작고 가벼운 솔루션을 개발하는 툴을 개발자에게 제공한다. 오늘날 많은 실리콘 기반의 디자인이 효율성 향상, 시스템 비용 절감 및 애플리케이션 혁신의 한계에 다다랐다. 고전압 SiC는 이러한 문제를 해결하는 검증된 대안이지만, 지금까지 3.3kV SiC 전력 디바이스의 가용성은 제한적이었다. 마이크로칩의 3.3kV MOSFET 및 SBD는 700V, 1200V 및 1700V 다이, 디스크리트, 모듈 및 디지털 게이트 드라이