국내 연구진, 전기 적게 먹고 똑똑한 ‘AI 반도체’ 개발
페이지 정보
작성자 행복한 댓글 0건 조회 87회 작성일 24-03-08 13:44본문
국내 연구진이 고성능을 발휘하면서도 전기는 매우 적게 사용하는 인공지능(AI) 반도체를 개발했다. 사람과 대화하고, 각종 정보를 찾아주는 GPT 같은 인스타 팔로우 구매 ‘거대언어모델(LLM) AI’를 배터리 소모 걱정 없이 스마트폰 등으로 장시간 사용할 기반이 마련될 것이라는 전망이 나온다.
과학기술정보통신부는 6일 유회준 카이스트(KAIST) 전기 및 전자공학부 인스타 팔로우 구매 교수가 이끄는 연구진이 정보 처리 속도는 유지하면서도 전기 소모량은 크게 줄인 AI 탑재용 반도체를 개발했다고 밝혔다.
연구진은 이 반도체에 ‘상보형-트랜스포머’라는 이름을 붙였다. 연구 결과는 지난달 19~23일 미국 샌프란시스코에서 개최된 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.
연구진은 이번에 개발한 AI 반도체 전력 소모량이 현재 LLM 작동에 사용되는 그래픽처리장치(GPU)인 엔비디아 A100 대비 625분의 1에 불과하다고 밝혔다. 이번 AI 반도체로 LLM의 일종인 GPT-2를 작동시켰더니 언어 생성 속도도 0.4초로 매우 빨라 사용에 불편함이 없었다.
연구진이 이런 초저전력 기술을 만들 수 있었던 것은 AI를 돌리는 기술 두 가지의 특징에 집중했기 때문이다.
AI 작동 기술 중 하나는 ‘스파이킹 뉴럴 네트워크(SNN)’이다. SNN은 실시간 정보처리에 유리하다. 하지만 복잡한 정보를 처리하는 능력은 약하다. 또 다른 기술은 ‘심층 인공 신경망(DNN)’이다. DNN은 이미지 인식과 비디오 정보 분석 같은 고난도 정보처리가 가능하다.
연구진은 정보를 담은 데이터 크기가 작으면 SNN이 DNN보다 전기를 더 적게 쓴다는 점을 알아냈다. 반대로 데이터가 클 경우 DNN이 SNN보다 전기를 덜 썼다.
연구진은 데이터 크기를 평가해 SNN으로 넘길지, DNN으로 넘길지를 재빨리 판단하는 작동 체계를 고안했다. 크기가 작아 가볍게 처리할 수 있는 데이터는 SNN에, 크기가 커 복잡한 분석을 해야 하는 데이터는 DNN으로 분배했다. 전기를 최대한 덜 쓰면서도 데이터를 효과적으로 처리할 수 있게 한 것이다.
한마디로 탑재량은 적지만 연비가 좋은 1t 트럭(SNN)이면 가능할 적은 이삿짐을 옮기는데, 탑재량이 크고 연비도 상대적으로 낮은 5t 트럭(DNN)을 부르는 일을 지양하는 방법을 개발한 셈이다.
반대로 짐이 많다면 1t 트럭 여러 대보다는 5t 트럭 1대를 불러 한 번에 옮기는 것이 효율적이다. 이삿짐 트럭을 고르듯 AI 작동 방식도 선택한 것이다. 연구진은 이번 반도체를 삼성전자 28나노 공정을 통해 제작했다고 밝혔다.
연구진은 이번 기술이 스마트폰 등 전자기기 내에 들어가는 ‘온디바이스 AI’ 사용을 확대하는 계기가 될 것으로 기대했다. AI 사용에 따른 배터리 소모량을 줄일 수 있어서다.
논문의 제1저자인 김상엽 카이스트 전기 및 전자공학부 박사는 현재 일부 최신 스마트폰에서는 AI를 사용해 실시간 번역 기능을 제공한다며 이번 연구 결과를 적용하면 이 같은 기능들을 더 장시간 쓸 수 있게 될 것이라고 말했다.
과학기술정보통신부는 6일 유회준 카이스트(KAIST) 전기 및 전자공학부 인스타 팔로우 구매 교수가 이끄는 연구진이 정보 처리 속도는 유지하면서도 전기 소모량은 크게 줄인 AI 탑재용 반도체를 개발했다고 밝혔다.
연구진은 이 반도체에 ‘상보형-트랜스포머’라는 이름을 붙였다. 연구 결과는 지난달 19~23일 미국 샌프란시스코에서 개최된 국제고체회로설계학회(ISSCC)에서 발표·시연됐다.
연구진은 이번에 개발한 AI 반도체 전력 소모량이 현재 LLM 작동에 사용되는 그래픽처리장치(GPU)인 엔비디아 A100 대비 625분의 1에 불과하다고 밝혔다. 이번 AI 반도체로 LLM의 일종인 GPT-2를 작동시켰더니 언어 생성 속도도 0.4초로 매우 빨라 사용에 불편함이 없었다.
연구진이 이런 초저전력 기술을 만들 수 있었던 것은 AI를 돌리는 기술 두 가지의 특징에 집중했기 때문이다.
AI 작동 기술 중 하나는 ‘스파이킹 뉴럴 네트워크(SNN)’이다. SNN은 실시간 정보처리에 유리하다. 하지만 복잡한 정보를 처리하는 능력은 약하다. 또 다른 기술은 ‘심층 인공 신경망(DNN)’이다. DNN은 이미지 인식과 비디오 정보 분석 같은 고난도 정보처리가 가능하다.
연구진은 정보를 담은 데이터 크기가 작으면 SNN이 DNN보다 전기를 더 적게 쓴다는 점을 알아냈다. 반대로 데이터가 클 경우 DNN이 SNN보다 전기를 덜 썼다.
연구진은 데이터 크기를 평가해 SNN으로 넘길지, DNN으로 넘길지를 재빨리 판단하는 작동 체계를 고안했다. 크기가 작아 가볍게 처리할 수 있는 데이터는 SNN에, 크기가 커 복잡한 분석을 해야 하는 데이터는 DNN으로 분배했다. 전기를 최대한 덜 쓰면서도 데이터를 효과적으로 처리할 수 있게 한 것이다.
한마디로 탑재량은 적지만 연비가 좋은 1t 트럭(SNN)이면 가능할 적은 이삿짐을 옮기는데, 탑재량이 크고 연비도 상대적으로 낮은 5t 트럭(DNN)을 부르는 일을 지양하는 방법을 개발한 셈이다.
반대로 짐이 많다면 1t 트럭 여러 대보다는 5t 트럭 1대를 불러 한 번에 옮기는 것이 효율적이다. 이삿짐 트럭을 고르듯 AI 작동 방식도 선택한 것이다. 연구진은 이번 반도체를 삼성전자 28나노 공정을 통해 제작했다고 밝혔다.
연구진은 이번 기술이 스마트폰 등 전자기기 내에 들어가는 ‘온디바이스 AI’ 사용을 확대하는 계기가 될 것으로 기대했다. AI 사용에 따른 배터리 소모량을 줄일 수 있어서다.
논문의 제1저자인 김상엽 카이스트 전기 및 전자공학부 박사는 현재 일부 최신 스마트폰에서는 AI를 사용해 실시간 번역 기능을 제공한다며 이번 연구 결과를 적용하면 이 같은 기능들을 더 장시간 쓸 수 있게 될 것이라고 말했다.
댓글목록
등록된 댓글이 없습니다.