저전력·초고속 AI 반도체 기술, 국내 연구진 세계 최초 개발
컨텐츠 정보
- 312 조회
-
목록
본문
전력 소모를 최소화하면서도 초고속으로 거대언어모델(LLM)을 처리할 수 있는 인공지능(AI) 반도체 핵심 기술을 국내 연구진이 세계 최초로 개발했다.
과학기술정보통신부는 한국과학기술원(KAIST) PIM반도체 연구센터와 인공지능반도체대학원 유회준 교수 연구팀이 '상보형 트랜스포머'를 삼성전자 28나노 공정을 통해 개발했다고 6일 밝혔다.
상보형 트랜스포머란 인간 뇌의 구조와 기능을 모방해 설계한 뉴로모픽 컴퓨팅 시스템의 일종인 '스파이킹 뉴럴 네트워크'(SNN·뇌의 뉴런이 스파이크라는 시간에 따른 신호를 사용해 정보를 처리하는 방식)와 '심층 인공신경망'(DNN·시각적 데이터 처리에 사용되는 딥러닝 모델)을 선택적으로 사용해 트랜스포머 기능을 구현하는 기술이다.
트랜스포머는 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망으로 챗GPT의 원천 기술이기도 하다.
GPT와 같은 LLM은 그동안 다량의 그래픽처리장치(GPU)와 250와트의 전력 소모를 통해 구동해야 했지만, 연구팀은 4.5㎜×4.5㎜의 작은 AI 반도체 한 개에서 400밀리와트의 초저전력만 소모하면서도 초고속 구현에 성공했다.
김상엽 박사가 제1 저자로 참여한 이번 연구 결과는 지난달 19∼23일 미국 샌프란시스코에서 열린 '반도체 설계 올림픽' 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.
이를 통해 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 실제로 입증한 것은 물론, 이론에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현했다고 과기정통부는 설명했다.
이번에 개발한 AI반도체용 하드웨어 유닛은 ▲ DNN과 SNN을 융합한 신경망 아키텍처로 정확도를 유지하면서도 연산 에너지 소모량을 최적화 ▲ DNN과 SNN을 모두 효율적으로 처리할 수 있는 AI반도체용 통합 코어 구조 개발 ▲ SNN 처리에 소모되는 전력을 줄이는 출력 스파이크 추측 유닛 개발 ▲ LLM 파라미터의 효과적 압축을 위한 기법 사용 등 4가지 특징을 지닌다고 연구진은 밝혔다.
GPT-2 거대모델의 파라미터를 7억800만 개에서 1억9100만 개로, 번역에 사용되는 T5 모델의 파라미터를 4억200만 개에서 7600만 개로 각각 줄일 수 있었다.
유회준 교수는 "초저전력의 뉴로모픽 가속기를 갖고 거대모델을 돌린 것은 세계 최초라고 자부한다"며 "온디바이스 AI의 핵심 기술인 만큼 앞으로도 관련 연구를 지속할 것"이라고 말했다.
관련자료
댓글 0
등록된 댓글이 없습니다.