연구 통해 NextPower 80/100V MOSFET에서 생성되는 스파이크 수준 크게 줄여 넥스페리아가 오늘 NextPower 80V 및 100V MOSFET 포트폴리오를 업계 표준 5mm x 6mm 및 8mm x 8mm 실장 면적의 새로운 소형 폼팩터 패키지인 'LFPAK'로 늘리고 있다고 발표했다. 이 새로운 NextPower 80/100V MOSFET은 낮은 RDS(on)및 낮은 Qrr에 최적화해 서버, 전원 공급 장치, 고속 충전기, USB-PD를 비롯해 통신, 모터 제어, 기타 다양한 산업용 장비에서 높은 효율과 낮은 스파이크를 제공한다. 이에 설계자는 1.8mΩ에서 15mΩ에 이르는 RDS(on) 값의 80V 및 100V 소자를 필요에 따라 선택하게 됐다. 여러 MOSFET 제조업체들은 타사 제품들과 비교해 소자의 스위칭 성능을 벤치마킹할 때 낮은 QG(tot) 및 낮은 QGD를 통해 높은 효율성을 달성하는 데 중점을 둔다. 그러나 넥스페리아는 광범위한 연구를 통해 스파이킹에 미치는 영향과 소자 전환 중에 생성되는 전자기 간섭(EMI)의 양으로 인해 Qrr이 훨씬 더 중요하다는 것을 확인했다. 넥스페리아는 이 매개변수에 집중함으로써 NextPow
두 제품 모두 테이프 아웃 이후 두 분기 내에 목표 달성...2025년 본격 생산 예정 인텔은 인텔 18A 공정 기반의 주력 제품인 AI PC용 프로세서인 ‘팬서 레이크(Panther Lake)’와 서버용 프로세서인 ‘클리어워터 포레스트’가 운영 체제를 성공적으로 부팅했다고 발표했다. 해당 두 제품 모두 테이프 아웃 이후 두 분기 내에 이 같은 이정표를 달성했으며, 2025년에는 본격적인 생산에 들어갈 예정이다. 인텔은 내년 상반기 중 첫 번째 외부 파운드리 고객이 인텔 18A 기반 제품을 테이프 아웃할 것으로 예상한다고 덧붙였다. 인텔 파운드리 서비스 총괄인 케빈 오버클리(Kevin O’Buckley) 수석 부사장은 “인텔은 AI 시대를 위한 다양한 시스템 파운드리 기술을 개척하며, 인텔과 파운드리 고객을 위한 차세대 제품에 필요한 혁신을 전방위적으로 제공하고 있다”며 “우리는 이러한 진전을 고무적으로 생각하며, 2025년 인텔 18A를 시장에 선보이기 위해 고객들과 긴밀히 협력하고 있다”고 말했다. 지난 7월 인텔은 18A 공정 설계 키트(PDK, Process Design Kit) 1.0을 배포했다. 이 설계 툴은 파운드리 고객이 인텔 18A에서 게이트
소비재, 금융, 모빌리티 등 전 산업 영역에서 혁신 사례 나타나 마이크로소프트가 AI 트랜스포메이션을 통해 비즈니스 모델 전반의 긍정적 변화를 이끌어낸 전 세계 다양한 산업의 파트너 및 고객의 혁신 사례 발굴에 속도를 내고 있다. 전 세계 조직이 AI 기술 도입을 가속화하고 있다. 실제로 마이크로소프트가 지난 5월 발표한 Work Trend Index 2024(업무동향지표)에 따르면, 전 세계 근로자 4명 중 3명이 직장에서 AI를 활용하며, 리더의 79%는 AI 도입이 경쟁력 유지를 위해 필수적이라고 인식하고 있다. 이에 마이크로소프트는 AI 도입 후 비즈니스 프로세스를 재정립해 성장을 촉진하고 비용을 관리하며, 고객에게 더 큰 가치를 제공하고 있는 파트너 및 고객 사례를 공개했다. 이러한 변화의 중심에는 '애저 오픈AI 서비스'와 '마이크로소프트 365 코파일럿'이 있다. 애저 오픈AI 서비스는 고객들이 다양한 AI 기술과 기능을 기존 클라우드 서비스에 쉽게 통합할 수 있도록 지원한다. 전 세계 1만8000개 이상의 조직과 포춘 500대 기업 중 65%가 이 서비스를 사용하고 있다. 마이크로소프트 365 코파일럿은 대규모 언어 모델(LLM)과 조직 데이터
우수제품 선정으로 자사의 기술력 및 제품 우수성 인정받아 비트센싱이 자사의 C-ITS(협력 지능형 교통 시스템)용 교통관제시스템 솔루션이 조달청 우수제품으로 선정됐다고 발표했다. 이번 선정은 비트센싱의 기술력과 제품의 우수성을 공식적으로 인정받은 결과로, 국가 공공사업에 대한 기여도와 기술적 우수성을 높이 평가받은 것이다. 조달청 우수제품 지정 제도는 국내 중소기업이 생산한 제품 중 기술력과 품질이 뛰어난 제품을 선정해 공공기관이 우선적으로 구매할 수 있도록 지원하는 제도다. 이 제도는 중소기업의 기술 혁신을 촉진하고, 공공 조달 시장에서의 경쟁력을 강화하기 위해 도입됐다. 우수제품으로 지정된 제품은 공공기관의 구매 시 우선 고려되며, 이를 통해 중소기업의 판로 확대와 경영 안정에 기여하고 있다. 비트센싱의 교통관제시스템은 레이더 센서, 카메라 센서, GPU 및 인공지능(AI) 알고리즘 기술을 통합시킨 일체형 솔루션으로 교통량 및 교통객체 감지, 차종 구분, 돌발 상황 감지, 보행자 및 무단횡단 감지, 주행 방향 감지, 교통 이벤트 감지 등을 제공하여 도로 상황을 정확하게 파악하고 예측할 수 있다. 또한, 방대한 교통 데이터를 분석해 차량검지시스템(Vehic
파이프라인, 고품질의 데이터를 빠르게 확보하도록 클러스터 서버 기반으로 병렬 처리 스트라드비젼이 디지털 전환을 가속화하기 위해 데이터 파이프라인 자동화 시스템을 구축했다고 밝혔다. 데이터 파이프라인은 다양한 데이터 소스에서 수집된 원시 데이터를 분석이 용이한 형태로 변환해 데이터 웨어하우스로 저장하는 전처리 과정을 말한다. 데이터 파이프라인은 보통 ETL(Extracting, Transforming, Loading)을 포함하는 과정으로 진행되는데, SVNet의 경우 상대적으로 복잡도가 높고 정밀한 데이터로 학습하기 때문에 ETL 과정을 여러 단계로 세분화했다. 이러한 이유로 전체 과정이 복잡하고 더 많은 시간이 소요된다. 데이터 품질이 SVNet 성능에 많은 영향을 주기에, 스트라드비젼은 SVNet 고도화를 위해 자동화를 택했다. 스트라드비젼이 구축한 데이터 파이프라인 자동화 시스템은 크게 세 단계로, 전처리, 품질, 효율 파이프라인이다. 파이프라인은 SVNet의 성능을 높일 수 있는 고품질의 데이터를 빠르게 확보하도록 클러스터 서버 기반으로 병렬 처리되며 모든 데이터는 데이터 센터를 통해 처리된다. 데이터 센터는 스트라드비젼에서 자체 개발한 데이터 웨어하우
고품질 제품을 적기에 출하함으로써 반도체 공급망 선순환에 기여할 계획 쿠어스텍이 경상북도 구미 한국본사 지역에 3번째 공장을 준공하고 기념 행사를 진행했다. 1992년 한국 진출 이후 구미 공장의 연구 및 제조 시설 투자를 지속해 온 쿠어스텍은 이번에 제3공장까지 확장함에 따라 급변하는 반도체 시장에 효과적으로 대응할 것으로 예상된다. 국내 반도체 생태계 발전에 기여하기 위해 꾸준히 구미 공장에 투자해 온 쿠어스텍은 이번 제3공장을 신제품 출시를 위한 구심점으로 삼고, 고객이 요구하는 고품질의 제품을 적기에 출하해 반도체 공급망의 선순환에 기여할 계획이다. 특히, 지난 2010년부터 14년간 지속적인 연구를 통해 고도화한 초고순도 물질을 제조하는 CVD SiC 제조 공정을 제3공장에도 적용함으로써, 반도체와 같이 극한의 공정을 요구하는 시장에 빠르게 대응할 것으로 기대된다. 쿠어스텍은 경상북도 및 구미시와 첨단 세라믹 제조시설 투자에 관한 양해각서(MOU)를 체결한 후 구미국가산업단지에 첫 공장을 2002년에 준공한 이래, 지난 2019년에 제2공장, 2024년에 제3공장을 증설하면서 한국 내 투자를 확대하고 고용을 창출하고 있다. 쿠어스텍 구미 공장에서 생
가상 비서와 에이전트를 만드는 데 기여할 것으로 보여 디노도테크놀로지(이하 디노도)는 디노도 플랫폼이 아마존 베드록의 대규모 언어 모델(LLM)과 원활한 통합을 제공한다고 밝혔다. 이를 통해 보안, 개인정보 보호, 책임감 있는 AI를 갖춘 생성형 AI 애플리케이션의 개발 생산성을 높일 것으로 보인다. AI와 머신러닝은 데이터 관리의 주요 업무를 자동화 및 효율화하고 데이터 민주화를 실현하는 디노도 플랫폼의 핵심 기술이다. 디노도와 베드록의 조합은 가상 비서와 에이전트를 만드는 데 도움될 것으로 보인다. 이들은 수많은 데이터 소스를 활용해 사용자 요청을 이해하고 작업을 자동으로 분류하며, 대화를 통해 정보를 수집해 요청 사항을 해결한다. 생성형 AI가 가진 잠재력에도 불구하고 오늘날 많은 기업은 비즈니스 목표에 맞는 생성형 AI 애플리케이션 구축에 어려움을 겪는다. 디노도 플랫폼은 검색 증강 생성(RAG) 프레임워크 안에서 아마존 오픈서치를 벡터 데이터베이스로 활용해 가용한 모든 데이터 소스로부터 신뢰할 수 있고 관리된 데이터를 베드록 LLM에 공급한다. 디노도 플랫폼은 데이터 소스 위에 단일 시맨틱 레이어를 구현해 시맨틱스를 표준화하고 강력한 데이터 거버넌스
"사람이 기존에 구축한 데이터 활용했을 때보다 정확도 높아" 데이터메티카가 재현 데이터 구축에 앞장서는 한편 다양한 산업 AI 고도화를 선도할 계획이라고 6일 밝혔다. 데이터메티카는 2022년 15억 원 이상 규모의 한국지능정보사회진흥원(NIA) 재현 데이터 사업을 성공적으로 수행한 경험과 다양한 연구 노하우를 기반으로 재현 데이터 사업을 본격적으로 시작할 예정이다. 데이터메티카는 지속적으로 다양한 분야의 재현 데이터 연구를 진행해 왔으며, 재현 데이터 생성 기술, AI 학습용 데이터 분석 기술 특허, 기업부설 연구소 등을 보유하고 있다. 재현 데이터는 실제 데이터를 기반으로 생성된 가상 데이터로, AI 학습과 분석에 유용하다. 실제 데이터와 유사하면서 개별 정보는 가상으로 생성됐기에 원 데이터의 개인 정보는 보호된다. 특히, 데이터메티카는 연구한 재현 데이터 기술을 AI 모델에 활용해 본 결과, 사람이 기존에 구축한 데이터를 활용했을 때보다 정확도가 높았다고 밝혔다. 앞으로 데이터메티카는 재현 데이터를 비롯해 기 구축된 데이터와 결합하는 등 다양한 신규 서비스 산업을 창출할 계획이다. 데이터메티카 곡세홍 대표는 “정형·비정형 데이터에서 재현 데이터를 사용할
서울시교육청, 강원도교육청 등의 기관과 AI 교육 진행...긍정적 평가 이어져 엘리스그룹이 각 시도별 교육청과 함께 교원 역량 강화 연수를 확대하고 있다. 엘리스그룹은 상반기 각 지역, 대상별 연수를 성공적으로 마무리한 것에 이어 AI 기술로 고도화한 교육 실습 플랫폼과 AI 교육 경험을 바탕으로 하반기에도 교원 대상 AI 연수 및 지원에 박차를 가할 계획이다. 지난 6월 11일부터 26일까지는 서울시교육청교육연수원과 손잡고 ‘2024 중등 AI 디지털 활용 역량 강화 직무연수’를 운영했다. 1기부터 3기까지 연이어 운영됐으며, 서울시교육청 소속 중등 교사 총 127명이 참여했다. AI 리터러시와 AI 코스웨어 활용 교육 등 교사의 AI 역량 강화에 초점을 맞춰 구성된 연수에 참여 교사들은 4.7점 이상(5점 만점)이라는 높은 만족도를 보였다. 큰 호응에 더불어 강의를 다시 개설해달라는 요청이 이어져 오는 8월 12일부터 14일까지 4~6기 연수를 추가로 운영할 계획이다. 강원 지역에서는 7월 5~6일 양일간 정보 교과목 교사를 대상으로 연수가 진행됐다. 강원도교육청 소속 정보 교사들이 참여한 ‘2024년 중등 정보 교사 대상 AI 디지털교과서 활용 연수’는
슈퍼브에이아이 "많은 기업에 SaaS 형태의 비전 AI 솔루션 제공할 기회 얻게 돼" 슈퍼브에이아이가 아마존웹서비스(AWS)의 'ISV 엑셀러레이트 프로그램(Independent Software Vendor Accelerate Program)' 파트너로 선정됐다고 6일 밝혔다. ISV 엑셀러레이트 프로그램은 AWS에서 실행하거나 AWS와 통합되는 소프트웨어 솔루션을 제공하는 기업을 위한 공동 판매 프로그램이다. AWS의 자체 영업 조직 및 리셀러 기업 인프라를 활용해 선정된 파트너사의 제품 및 서비스 판매를 지원한다. AWS 및 리셀러 기업 입장에서는 슈퍼브 제품을 통해 신규 클라우드 고객 확보가 용이해졌으며, 고객 입장에서는 도입하기 어려웠던 AI를 새롭게 도입할 수 있게 됐다. 기존 AWS 클라우드를 이용하는 기업에 제품·서비스를 소개해 AWS의 국내·외 영업 조직을 모두 활용할 수 있어 글로벌 고객 확보에 용이하다. 또한 고객 발굴 및 기술검증 등에 필요한 자금도 지원하기에 파트너사는 수월하게 신규 비즈니스를 추진하고, 영업 효율성을 높인다. 슈퍼브에이아이는 ‘AWS 마켓플레이스’에 자사 비전AI 솔루션인 ‘슈퍼브 서비스’ 및 ‘슈퍼브 플랫폼’을 등록해
자사 내에서 기술 공개 여부 두고 약 2년 동안 논쟁 해온 것으로 알려져 오픈AI가 과제나 논문 등에 학생들이 부정으로 챗GPT를 사용했는지 여부를 체크할 수 있는 기술을 개발했지만, 이를 공개하지 않고 있다고 월스트리트저널(WSJ)이 4일(현지시간) 보도했다. 소식통 등에 따르면 오픈AI는 약 1년간 이 기술의 출시 준비를 해왔으며, 한 내부 관계자는 "버튼만 누르면 된다"며 기술은 이미 개발된 상태라고 전했다. 이 기술은 이용자에게는 보이지 않지만 챗GPT가 생성한 콘텐츠에 워크마크가 표시돼 이를 식별하는 방식이다. 이를 토대로 전체 문서에 워터마크가 있을 가능성이 얼마나 되는지 점수를 제공한다. 이 기술은 99.9%의 정확도로 과제나 논문 작성 등에 사용된 콘텐츠가 챗GPT가 생성한 것인지를 식별해낸다고 이 매체는 전했다. 그러나 오픈AI는 이 기술의 공개 여부를 두고 약 2년 동안 내부적으로 논쟁 해왔으며, 오픈AI는 투명성에 대한 약속과 함께 더 많은 사용자 유치 사이에서 기술 공개 여부를 고심하고 있다고 WSJ은 보도했다. 한 설문조사에서 챗GPT를 자주 사용하는 이용자의 3분의 1은 이 부정행위 감지 기술이 도입되면 챗GPT를 사용하지 않을 수도
어드밴스드 MR-MUF, 하이브리드 본딩 기술 모두 검토해 적용할 예정 SK하이닉스가 맞춤형 고대역폭 메모리(HBM)인 6세대 제품 HBM4에 맞춰 차세대 패키징 기술 개발에 속도를 낸다. HBM4 16단부터는 어드밴스드 MR-MUF, 하이브리드 본딩 기술을 모두 검토해 고객 니즈에 부합하는 최적의 방식을 쓰겠다는 계획이다. 이규제 SK하이닉스 PKG제품개발 담당 부사장은 자사 뉴스룸에 공개된 인터뷰에서 "커스텀 HBM에 맞춰 차세대 패키징 기술을 개발하겠다"며 "방열 성능이 우수한 기존 어드밴스드 MR-MUF를 지속적으로 고도화하는 한편, 하이브리드 본딩 등 새로운 기술을 확보할 계획"이라고 밝혔다. HBM은 D램을 여러 개를 쌓아 만든다. 적층 수가 많아질수록 방열, 휨 현상 등이 발생해 이를 해결할 패키징 기술이 필수적이다. 특히 하이브리드 본딩 기술은 16단 이상 HBM 제품에서 필요성이 커지고 있다. 하이브리드 본딩은 칩을 적층할 때 칩과 칩 사이에 범프를 형성하지 않고 직접 접합시키는 기술이다. 이 기술을 활용하면 칩 전체 두께가 얇아져 고단 적층이 가능해진다는 강점이 있다. 이 부사장은 "표준 규격에 따라 제품 두께는 유지하면서도 성능과 용량을
2분기 전 세계 실리콘 웨이퍼 출하량은 30억3500만in²로, 1분기 대비 7.1% 증가 올해 2분기 실리콘 웨이퍼 출하량이 직전 분기 대비 증가한 것으로 나타났다. 5일 국제반도체장비재료협회(SEMI)에 따르면, 2분기 전 세계 실리콘 웨이퍼 출하량은 30억3500만in²로, 1분기 대비 7.1% 증가했다. 작년 동기(33억3100만in²)보다 8.9% 줄어든 수치다. 1분기 실리콘 웨이퍼 시장은 팹 가동률 하락과 재고 조정으로 출하량이 역성장했으나, 2분기 들어 데이터 센터와 생성형 AI에 대한 수요로 회복세를 보였다. 새로운 팹이 건설되고 생산 능력이 확장됨에 따라 향후 시장 전망 또한 밝다고 SEMI는 내다봤다. 디스크 모양의 실리콘 웨이퍼는 1인치에서 12인치까지 다양한 직경으로 생산되며 반도체 칩 생산을 위한 기판 소재로 쓰인다. 헬로티 전자기술 기자 |
AI 시장 확대에 따른 온디바이스 AI 기기 급부상이 기회로 작용해 올해 2분기 삼성전자의 전체 영업이익의 60%를 반도체 사업을 담당하는 디바이스솔루션(DS)부문이 차지한 가운데 애플리케이션 프로세서(AP) 등을 맡는 시스템LSI의 실적 개선에도 이목이 쏠린다. 5일 업계에 따르면 삼성전자 DS부문은 올해 2분기 매출 28조5600억 원, 영업이익 6조4500억 원을 기록하며 반도체 부활을 알렸다. 반도체 사이클 업턴에 따라 메모리가 크게 선전한 것이 주효했다. 지난달 31일 2분기 실적발표 콘퍼런스콜에서도 고대역폭 메모리(HBM) 등 메모리 반도체에 시선이 집중됐다. 설계를 담당하는 시스템LSI도 점차 실적 기여도를 높여가고 있다. 메모리를 제외한 DS부문 시스템LSI·파운드리 매출은 2분기 6조8200억 원을 기록했다. 전년 동기(5조7600억 원)보다 1조600억 원 많아졌고, 직전분기(5조6500억 원)와 비교해도 1조1700억 원 상승한 수치다. 증권가에서는 오는 3·4분기에도 각각 7조∼8조 원의 매출을 낼 것으로 보고 있다. 권형석 삼성전자 시스템LSI사업부 상무는 2분기 실적 콘퍼런스콜에서 "시스템LSI는 2분기에 주요 부품 공급 증가로 실적
생성형 언어모델 적용으로 신속한 의사결정 지원 및 업무효율성 개선 추진 코난테크놀로지가 사이버&네트워크연구원과 협력해 국방부의 ‘군 인사업무 분야 대형언어모델(LLM) 적용방안 연구’를 수행한다. 코난테크놀로지는 2022년 12월 국방부의 ‘스마트 인재관리시스템’ 구축 사업을 계약한 바 있다. 군 인사분야에 AI와 빅데이터 기술을 접목한 스마트 인재관리시스템을 2025년까지 구축하는 사업으로, 이번 연구도 해당 사업과 관련 있다. 육군 인사사령부가 주관기관인 군 인사업무에 생성형 언어모델을 적용 방안에 대해 지난달 29일 사이버&네트워크연구원과 협력해 연구를 시작했다. 군 인사업무에는 정책수립(인사기획, 인사제도, 근무복지 정책), 인재선발(장교·부사관·군무원 모집 및 면접/평가), 인재관리(장병 입대 후 최초 병과·특기/보직 부여 및 보직 관리), 교육선발(군사교육 대상자 선정 및 성과관리), 진급관리(인사DB 및 각종 검증자료 활용 디지털 진급 관리), 전역지원(전직 교육, 컨설팅 등 취·창업지원에 관한 제반 업무 수행), 보훈지원(보훈대상자 관리 및 예비역 장병 지원업무 수행), 기록물 관리 등 여러 분야에서 중요 과업이 수반된다. 이렇듯