엔비디아가 실시간 대화형 인공지능(AI)를 지원하는 추론 소프트웨어를 공개했다.
미국 시장조사기관 주니퍼 리서치(Juniper Research)에 따르면, 전 세계 디바이스에서 약 32억5천만 개의 디지털 음성 비서가 사용되고 있는 것으로 추정된다. 2023년까지 그 숫자가 세계 총 인구 수를 뛰어 넘는 80억 개까지 증가할 것으로 예상된다.
인공지능(AI) 컴퓨팅 기술 기업 엔비디아가 실시간 대화형 AI를 지원하는 추론 소프트웨어의 최신 버전인 엔비디아 텐서RT 7(NVIDIA TensorRT™ 7)을 발표했다.
전 세계 개발자들이 대화형 AI 애플리케이션 제공에 사용할 경우, 인간과 AI간 상호작용에 걸림돌이 됐던 추론 레이턴시(지연시간)를 크게 개선할 수 있을 것으로 기대를 모으고 있다.
엔비디아 텐서RT 7은 엔비디아의 7세대 추론 소프트웨어 개발 키트로, 보다 스마트한 인간과 AI간 상호작용을 가능케 해, 음성 에이전트(voice agent), 챗봇, 추천 엔진 등의 애플리케이션을 실시간으로 구현할 수 있게 됐다.
텐서RT 7은 AI 음성 애플리케이션을 구현하는데 필요한 트랜스포머(transformer) 기반 RNN(Recurrent Neural Network, 순환신경망)을 자동으로 최적화하고 가속화하도록 설계된 최신 딥 러닝 컴파일러를 제공한다. 이를 통해, 대화형 AI의 구성요소가 CPU에서 실행될 때 보다 10배 이상 빨라진다. 동시에, 지연시간은 실시간 상호작용에 필요한 수준인 300 밀리 초 임계값 미만으로 단축된다.
엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)은 GTC 차이나 기조연설에서 ‘기계가 인간의 언어를 실시간으로 이해할 수 있게 된 새로운 AI 시대에 들어섰다. 텐서RT 7은 전 세계 개발자들에 인간과 AI간의 보다 자연스러운 상호작용을 가능케하는 빠르고 스마트한 대화형 AI 서비스를 구축 및 배포할 수 있는 툴을 제공한다’고 발표했다.
순환신경망의 중요성 증대
RNN 구성과 기능이 결합되는 상황이 폭발적으로 증가하면서, 실시간 성능 기준을 충족하는 생산 코드(production code)를 빠르게 배포해야 하는 상황이 발생하게 됐다. 이로 인해 업무를 진행하는데 수개월이 지연되고 개발자들은 코드 최적화 작업을 수동으로 해야 했다. 그 결과, 대화형 AI 실행능력을 갖춘 소수 업체들만 대화형 AI를 구현할 수 있었다.
텐서RT의 최신 딥 러닝 컴파일러를 통해, 전세계 개발자들은 맞춤형 자동 음성인식 네트워크와 텍스트-투-스피치(text-to-speech)용 웨이브RNN(WaveRNN)과 타코트론 2(Tacotron 2) 등의 네트워크를 자동 최적화할 수 있는 능력을 갖추게 됐고, 이를 통해 최고 수준의 성능을 최저 지연시간에 제공할 수 있게 됐다.
엣지에서 클라우드로 추론 기능 가속화
텐서RT 7은 하이퍼스케일 데이터 센터, 내장형 또는 자동차용 GPU 플랫폼을 통해 훈련된 추론 신경망을 빠르게 최적화, 검증, 배포할 수 있다.
텐서RT를 비롯한 여러 엔비디아 쿠다-X AI 라이브러리(NVIDIA CUDA-X AI™ libraries), 엔비디아 GPU 등이 포함된 엔비디아 추론 플랫폼은 이미지 분류, 사기 탐지, 분할, 오브젝트 탐지, 추천 엔진 등 저지연, 고처리량 추론 기능을 대화형 AI 이외의 애플리케이션에서도 구현한다.
저작권자(c)산업종합저널. 무단전재-재배포금지