AI 데이터센터의 성장을 돕는 혁신 기술.. “동적 전력 관리에 있다”
[아이씨엔매거진 오승모 기자] 르네 하스(Rene Haas) Arm CEO(최고경영자)는 최근 자사 블로그(링크)에 올린 글에서 “AI는 대규모 데이터센터부터 이어버드와 같은 초소형 디바이스에 이르기까지 모든 주요 시장을 빠르게 변화시키고 있다”고 설명하고, 이로 인해 컴퓨팅 성능에 대한 요구가 더욱 커지고 있다며, 이제 업계는 “근본적인 도전”에 직면해 있다고 말했다.
그가 말하는 근본적인 도전은 무엇일까?
그것은 바로 전력 소비를 제어하면서도 대규모 성능 향상을 실현해야 한다는 것이다. AI 워크로드가 급변하는 컴퓨팅 수요에 더해지면서, 시스템온칩(SoC) 수준에서의 전력 효율성은 그 어느 때보다 중요해졌다는 진단이다.
이에 Arm은 고효율 네오버스(Neoverse) 플랫폼 확대에 주력한다. 여기에는 AI 데이터센터 최적화와 Grace-Blackwell 통합 설계가 포함된다. 데이터센터 최적화를 위해 Neoverse CPU는 경쟁사 대비 60% 이상의 에너지 효율성을 제공하며, AWS Graviton·Google Axion·Microsoft Cobalt 등 클라우드 업체에서 AI 추론/학습에 활용된다. Grace-Blackwell 통합 설계를 위해 NVIDIA와 협력한 Grace CPU + Blackwell GPU 조합으로 LLM 처리 시 에너지 소모 25배 절감, GPU당 성능 30배 향상을 달성했다.
AI 기반 동적 전력 관리 기술에도 주력했다. APOLLO 프레임워크는 100개 이상의 신호를 분석해 실시간 전력 모델링을 구현하고, 95% 이상의 정확도로 전력 소모를 예측해 내고 있다. AI 강화 DVFS도 주목된다. Intel Meteor Lake 사례를 참조하면, 사용자 작업 패턴 학습을 통한 사전 예측 전압/주파수 조정으로 반응 속도 35% 향상, 전력 절약 15% 증가를 달성했다.
더불어 Arm은 AI 프레임워크 최적화는 물론 MLPerf Client 벤치마크 완전 지원을 통한 AI 성능 검증 인프라 구축과 같은 개발자 도구 제공을 강화했다. 여기에 AI 데이터센터에 대한 예측 유지보수와 액체냉각 보다도 40% 이상 에너지 소비를 줄인 패시브 쿨링 기술을 채택했다.
르네 하스 CEO는 “그래서 Arm은 인프라, 클라이언트, 오토모티브, 그리고 IoT를 위한 엣지 AI 플랫폼 등 모든 핵심 시장에 걸쳐 Arm 컴퓨팅 서브시스템(CSS)을 도입했다.”고 밝히고, 이것이 SoC를 설계하는 “유일한 방법”이라고 강조한다.

그래서 Arm은 인프라부터 사물인터넷(IoT)에 이르기까지 각 플랫폼의 정체성을 외부에 보다 명확히 전달하기 위해 새로운 제품 명명 체계를 도입했다.
- 각 컴퓨팅 플랫폼은 이제 주요 최종 시장에 맞는 명확한 정체성을 가진다
- Arm 네오버스(Neoverse): 인프라용
- Arm 니바(Niva): PC용
- Arm 루멕스(Lumex): 모바일용
- Arm 제나(Zena): 오토모티브용
- Arm 오르비스(Orbis): IoT용
- 말리(Mali) 브랜드는 기존처럼 Arm GPU 브랜드로 유지되며, 해당 플랫폼 내의 설계자산(IP)으로 참조된다.
- IP 넘버링도 단순화되어, 플랫폼 세대와 일치하도록 정렬되고, 울트라(Ultra), 프리미엄(Premium), 프로(Pro), 나노(Nano), 피코(Pico)와 같은 이름을 사용하여 성능 등급을 명확히 구분한다.
이 플랫폼 우선 접근 방식은 단지 코어 IP 수준이 아닌 시스템 수준에서 Arm 컴퓨팅 플랫폼으로의 빠른 전환이 이루어지고 있음을 보여준다.
아마도 르네 하스 CEO의 기대치를 충족할 수 있을지도 모른다. “이는 Arm의 기술을 파트너들이 더 빠르게, 더 높은 신뢰성으로, 더 적은 복잡성으로 통합할 수 있게 하며, 특히 AI의 요구에 대응하기 위해 확장할 때 그 진가를 발휘한다.”는 기대치 말이다.