인공지능·반도체 결합 '지능형반도체' 주목받는 이유
  • 해당된 기사를 공유합니다

인공지능·반도체 결합 '지능형반도체' 주목받는 이유

글로벌 IT기업, 인공지능 프로세서 기술 확보 경쟁
스마트폰업계, 독자적 인공지능 위한 맞춤형 프로세서 제조
미래 인공지능 시대, 데이터 처리보다 전력 효율성 강조 전망

  • 이종은 gdaily4u@gmail.com
  • 등록 2019.09.19
  • 댓글 0

인공지능은 글로벌 IT 산업의 핵심이다. 단순 작업은 물론 회계 법률 진료 등 전문영역까지 인공지능이 활용되고 있다. 미래에는 일상생활의 거의 모든 곳에서 활용될 전망이다. 

 

단순 작업을 넘어 여러 전문 영역까지 인공지능을 활용하고 있다. 음성과 이미지를 인식 분류, 언어 번역, 자율주행, 기사 작성 등도 수행한다. 인간 감정까지 인공지능이 확산되고 있다. 

 

[크기변환]board-410099_1280.jpg
ⓒ픽사베이

 

 

19일 델코지식정보가 내놓은 '인공지능(AI) 프로세서의 새로운 혁신' 보고서에 따르면 일상생활의 거의 모든 분야에 걸쳐 인공지능이 활용될 전망이다. IT 업계, 금융, 농업, 자동차, 물류 등 IT 융복합이 활발한 기업들도 인공지능 기술역량을 축적하고 있다.


특히 인공지능의 부상으로 반도체가 더욱 중요해지고 있는 상황이다. 반도체 산업은 PC와 스마트폰 등 새로운 기기가 등장할 때마다 성장을 거듭한다. 시간이 갈수록 보다 많은 정보저장 용량과 빠른 연산 실행 속도가 필요하기 때문이다. 스마트폰 성장으로 작은 크기에 기능을 집약한 반도체 개발경쟁이 치열하다.

 

인공지능은 반도체 산업 성장을 견인한다. 인공지능 발전은 엄청난 정보 수집 및 처리 능력이 필요하기 때문이다. 정보 저장하는 DRAM과 NAND Flash 등 메모리 반도체 수요가 폭증하면서, 인공지능 알고리즘 실행하는 시스템 반도체의 중요성은 더욱 커지고 있다. 스마트폰/TV/스마트 스피커 등은 물론, 클라우드 데이터센터에서도 인공지능 지원을 위한 뛰어난 성능의 반도체가 많이 필요하다.


아울러 인공지능을 지원하는 반도체의 개발과 탑재가 중요해지고 있다. 인공지능 알고리즘을 효율적으로 구동하는 전용 반도체 프로세서(Processor)를 사용해 인공지능 성능을 끌어올리기 위해서다. 


그동안 인공지능을 구현하기 위한 소프트웨어가 관심을 받은 반면, 이를 뒷받침하는 하드웨어는 상대적으로 크게 부각되지 못했다. 최근 중요해지고 있는 하드웨어 중심의 딥 러닝(Deep Learning)은 인공지능 머신러닝 (Machine Learning)을 구현하는 알고리즘으로, 인간 뇌의 신경망(Neural network) 구조를 모방하고 있다.


뇌신경은 뉴런(Neuron)이라는 작은 세포 단위가 연속적으로 연결돼 있는 구조다. 뉴런은 시냅스 (Synapse)라는 연결 세포를 통해 앞에 연결된 뉴런으로부터 다수의 전기 자극을 입력 받아 이를 저장하거나 새로운 자극을 만들어 다음 뉴런으로 넘겨준다. 약 1000억 개 이상의 뉴런과 100조개 이상의 시냅스는 이런 과정을 연속 반복해 정보를 기억하거나 이를 토대로 다음에 해야 할 일을 판단하는 식이다. 


딥 러닝 알고리즘에서 뉴런의 역할을 담당하는 정보 입출력 연산은 그리 어려운 작업이 아니다. 문제는 수만 개 이상의 연산을 동시 처리하는 과정 반복이라고 할 수 있다. 때문에 딥 러닝 프로세서의 병렬 컴퓨팅(Parallel computing) 능력이 인공지능 성능을 결정하는 핵심이 되고 있다.


현재 컴퓨터의 핵심 반도체인 중앙프로세서(CPU, Central Processing Unit)로는 병렬 컴퓨팅이 어렵다. CPU는 복잡하고 어려운 연산을 입력순서에 따라 처리하는 직렬 컴퓨팅(Sequential computing) 구조이기 때문이다. CPU가 딥 러닝을 구동하면 처리속도가 느려지고 에너지 과다 소모가 심해진다. CPU가 본연의 역할 외 인공지능 업무까지 담당하면서 과중한 부담으로 전체 시스템 성능이 저하된다.


이에 IT업계는 인공지능 구현에 적합한 프로세서를 전담 사용하는 인공지능 가속(AI Acceleration) 방법을 적용한다. 인공지능 프로세서가 반도체 업계의 유망 테마로 떠오르고 있는 이유다. 

 

실제로 많은 IT 기업들이 인공지능 프로세서에 관심을 갖고 기술 확보에 뛰어들고 있다. 글로벌 반도체 전문 기업은 물론 세레브라스 시스템즈(Cerebras Systems)나 그래프코어(Graphcore) 등 관련 스타트업도 등장해 인공지능 프로세서 개발이 활발해지고 있다.


재조명받는 그래픽처리장치(GPU)


과거엔 CPU가 전체 소프트웨어의 구동을 담당했지만 컴퓨터에 탑재되는 소프트웨어의 크기가 커지고 유형도 다양해지면서 CPU만으로 모든 작업을 담당하기가 어려워졌다.

 

애초 그래픽처리장치(GPU, Graphic Processing Unit)는 CPU의 처리작업을 분담하는 목적으로 개발됐다. IT 성장에 따라 고해상도 화려한 그래픽이 적용되는 게임, 영화 등 멀티미디어 컨텐츠 비중이 늘었다. 멀티미디어 컨텐츠 재생을 위해서는 영상을 구성하는 개개의 픽셀(Pixel)을 표현하는 연산을 동시 처리해야 한다. 

 

기존 CPU로는 수행이 어려워 그래픽 처리 전담용 프로세서가 필요하다. 신생 반도체 설계(Fabless)기업이었던 엔비디아(Nvidia)는 멀티미디어 컨텐츠 지원을 위하여 수 천 개 이상의 코어(Core)를 연결하는 병렬 컴퓨팅 기술을 선보여 GPU라는 신규 영역을 개척했다.

 

초고화질과 3차원 영상 등 그래픽 기술발전으로 GPU 인기도 급상승했다. 콘텐츠 재생에 사용하던 GPU는 이후 각종 소프트웨어에도 적용됐다. 엔비디아는 GPU 가치를 활용해 다목적 GPU 솔루션을 출시했다. 엔비디아가 2006년 선보인 GPU 솔루션 쿠다(CUDA)는 복잡한 금융투자 및 기후 모델 시뮬레이션 등 다양한 분야에 활용되고 있다.


무엇보다도 GPU는 강력한 병렬 컴퓨팅 강점 때문에 인공지능, 특히 딥 러닝에 적합하다는 평가다. 이에 구글과 페이스북 등 많은 IT 기업들이 자사의 비즈니스에 딥 러닝을 적용하기 위하여 GPU 사용을 크게 늘렸다.


현재 GPU 시장의 과반 이상을 점유하고 있는 엔비디아는 데이터센터, 가전, 자동차 등 많은 기기의 인공지능 적용에 힘입어 성장하고 있다. 엔비디아는 자율주행 시스템 드라이브 PX(Drive PX) 등 인공지능 처리에 특화된 각종 GPU 솔루션을 출시해 인공지능 프로세서 시장을 주도하고 있다. AMD 등 다른 반도체 기업들 역시 GPU 개발에 나서고 있다.


부상하는 맞춤형 인공지능 프로세서


인공지능의 주류 기술로 부상한 딥러닝은 거듭나고 있다. 인공지능의 목적인 뇌의 신비를 풀기 위해 인간의 사고 체계, 뇌의 생물학 특성을 연구하는 움직임도 활발하다. 인공지능 활용 어플리케이션도 늘고, 간단한 음성 문자 인식은 물론 수많은 정보를 분석하여 시사점도 발굴한다.


동일한 원리의 인공지능이더라도 집중 처리해야 할 정보 유형과 처리방법 등 구현 방식은 각 어플리케이션 마다 다르다. 각 어플리케이션 특성에 적합한 인공지능 시스템 구현을 위해 범용 프로세서 대신, 주문형 반도체(ASIC, Application Specific Integrated Circuit) 기술로 프로세서를 개발하고 있다.


인간의 뇌처럼 딥 러닝도 크게 두 단계로 구성된다. 먼저 학습(Learning) 단계로 딥 러닝 신경망이 특정작업 수행을 위해 기본적 지식을 배운다. 다음은 추론(Inference) 단계로 학습을 거친 신경망이 외부 명령이나 상황인식하면서 학습한 내용을 토대로 가장 적합한 결과를 산출한다.


인공지능은 이 두 과정을 반복 실행해 더 나은 답을 찾도록 성능을 강화한다. 적용분야에 따라 인공지능 활용 목적은 상이하기에 GPU가 반드시 적합한 것은 아니다. GPU와 동일한 작업을 수행하면서도 훨씬 적은 양의 에너지를 사용하는 프로세서도 관심 대상이다. 향후 인공지능 확대에 따라 추론 기능을 중심으로 인공지능 프로세서 개발이 진행될 전망이다.


구글은 당초 인공지능 바둑 프로그램 알파고(Alpha Go)를 구동하기 위하여 GPU를 집중적으로 사용했다. 이후 개선된 알파고를 위해서는 'Tensor Flow Processor'라는 독자 적 인공지능 프로세서를 개발했다. 이는 기존 CPU와 GPU의 조합보다 15~30배나 빠르게 인공지능의 추론 기능을 수행하고, 에너지 소모량도 수십 배 이상 적다. 

 

인텔 역시 2016년 인수한 인공지능 프로세서 스타트업 모비디우스(Movidius)의 'Nervana Systems 기술'을 활용해 ASIC 기반 인공지능 프로세서 시장에 뛰어들었다.

 

스마트폰 기업들도 독자적 인공지능을 위한 맞춤형 프로세서 제조를 하고 있다. 2017년 애플은 아이폰의 3차원 안면인식을 위한 인공지능 프로세서를 개발해 스마트폰 AP(Application Processor)에 탑재했다. 사람들의 노화나 안경착용 등으로 얼굴특징이 일부 변해도 얼굴변화를 추론해 인식하는 인공지능 프로세서 'Neural Engine'을 독자적으로 설계했다. 


각각 제품 서비스에 적합한 인공지능 구현을 위해 FPGA(Field Programmable Gate Array) 사용도 늘고 있다. FPGA는 설계나 제조 시 특성이 결정되는 일반 반도체와 달리, 사용자가 용도에 맞게 하드웨어 특성을 유연하게 변경하는 반도체다. FPGA는 1980년대부터 등장하였지만 다른 반도체보다 성능이 낮다는 단점 때문에 활용이 제한적이었다.


최근 FPGA는 하루가 다르게 발전하는 각종 인공지능 알고리즘을 지원하고 있다. 기술수준발전으로 인공지능 구현을 위한 FPGA 정보 처리능력도 개선되고 있다.


마이크로소프트는 애저 클라우드 컴퓨팅과 검색서비스 빙 등을 지원하는 데이터센터에 FPGA를 탑재했다. 인텔은 2015년 FPGA 전문기업 알테라를 인수하고 이를 활용한 신제품을 출시하고 있다.


프로세서, 인간의 뇌를 닮다 


오늘날 컴퓨터는 폰 노이만 구조(Von Neumann Architecture)라는 컴퓨터 구조 설계 이론에 근간을 둔다. 정확한 정보와 논리체계로 구성된 프로그램을 효율적으로 처리하기 위하여 설계됐다. IT 산업의 초창기 이래 방대한 정보를 더 빠르게 분석하고 결과를 산출할 수 있도록 발전하면서 컴퓨터 시스템 설계의 표준이 됐다.

 

스마트폰과 데이터센터 등 인공지능 탑재 IT 시스템 대부분은 폰 노이만 구조를 유지하면서 GPU 등 부가프로세서를 활용하여 딥 러닝을 수행한다. CPU가 전체 시스템의 동작과 제어를 담당하고, 인공지능 프로세서는 딥 러닝 기능을 집중적으로 처리하도록 구성된 이기종 시스템(HSA: Heterogeneous System Architecture) 방법 이다. 그러나 인공지능 성능 강화를 위해 비례적으로 더욱 많은 프로세서가 필요하다.


그 개선을 위해 인간의 뇌신경 구조 자체를 그대로 모방한 프로세서 필요성이 등장했다. 뉴런과 뉴런이 시냅스로 촘촘하게 엮이듯이, 인공지능 프로세서도 개개의 개별 소자가 네트워크로 연결되어 학습과 의사결정을 담당하는 구조로 설계되어야 한다. 즉 지금까지 소프트웨어로 만들었던 딥 러닝을 반도체 집적회로 기술로 구현하는 접근법이다.


뇌신경을 닮은 프로세서라는 의미로 'Neuromorphic Processor'라 정의한다. 수십 년 전 제안된 아이디어지만 당시에는 인공지능에 대한 낮은 관심 탓에 주목을 받지 못했다. 딥 러닝 인기가 증가하면서 그 잠재력이 재조명 받고 있다.


아직 뉴로모픽 프로세서는 본격적인 상용화에 미달하고 있다. 신경망처럼 수천만에서 수 억 개가 훨씬 넘는 트랜지스터를 정교하게 연결하는 기술이 없기 때문이다. 그러나 반도체 설계와 공정기술이 발전하면서 이 프로세서의 현실 가능성이 높아지고 있다.


딥 러닝은 거의 무한정에 가까운 정보를 학습하기에 뛰어난 인식과 판단능력을 가질 수 있지만 막대한 에너지 소모를 동반한다. 구글은 알파고 구동을 위해서 1200 여 개의 CPU와 176개의 GPU, 920TB(Tera Bytes)의 DRAM 등 엄청난 양의 반도체를 장착한 슈퍼 컴퓨터를 사용했다. 에너지 사용량은 무려 12GW에 달했다. 사람이 일상적으로 정보를 기억하고 판단하는 이론적 에너지 소모량은 약 20W에 불과하다.


미래 인공지능 시대에는 데이터 처리 성능 자체보다 전력 효율성이 더 강조될 전망이다. 모바일 가전 작은 사물인터넷 기기 하나하나마다 인공지능이 적용되기 때문이다. 뉴로모픽 프로세서는 신경망 구조를 내재화하고 있어, 이론적으로 인간처럼 아주 적은 전력만으로도 고성능 인공지능을 수행할 수 있다. 이 프로세서가 상용화된다면 인공지능의 저변이 예상보다 더욱 빠르게 확산된다.


현재 기술로는 인간의 신경망을 완벽하게 모사할 수 있는 이상적 뉴로모픽 프로세서를 만들기 어렵다. 그래서 고성능 뉴로모픽 프로세서를 만들기 위해 멤리스터 (Memrister) 등 차세대 소자에 대한 연구가 한창이다.


전 세계적으로 뉴로모픽 프로세서를 개발 움직임을 보자. IBM은 2014년 인간 뇌를 모방하는 시스템을 연구한 미국 국방부 방위고등연구 계획국(DARPA)의 프로젝트 결과를 활용하여 뉴로모픽 프로세서 TrueNorth를 개발했다. 100만 개의 뉴런과 2억6000만 개 시냅스로 이루어진 신경망 구조를 가지고 있다.


퀄컴도 뉴로모픽 프로세서 연구를 하고 있다. 퀄컴은 자사의 인공지능 역량을 강화하기 위하여 제로스 프로젝트를 추진했다. 뉴로모픽 프로세서 기술을 연구해 이 가운데 일부를 자사의 스마트폰 AP 스냅드래곤(Snapdragon)에 적용했다. 인텔도 캘리 포니아 공과대학(Caltech) 등과 협력해 뉴로모픽 프로세서 로이히(Loihi)을 개발하며 관련 기술 역량 축적에 나서고 있다.


하드웨어 중심 인공지능 개발 트렌드 확산


그동안 인공지능은 주로 소프트웨어와 서비스를 중심으로 발전했다. 딥 러닝 같은 알고리즘과 인공지능을 활용한 다양한 서비스의 등장으로 인공지능이 IT 산업의 중심이 되었다. 하드웨어를 중심으로 하는 인공지능이 확대될 전망이다.


기존 IT 시스템은 인간의 판단과 명령을 기반으로 한 수동성 이다. 반면 인공지능 시스템은 인간 개입 최소화와 자율성을 지향한다. 자율성이 높아질수록 데이터 처리능력도 향상된다. 소프트웨어는 물론 하드웨어, 특히 반도체가 중심이 된 인공지능 프로세서가 중요하다.


반도체 시장은 IT 산업 패러다임 변곡점에 따라 성장하였다. 인터넷, 이동통신, 빅데이터, 사물인터넷 등 새로운 패러다임 때마다 정보 저장과 처리 역량이 강조됐다. 그때마다 메모리와 각종 시스템 반도체의 성능이 강화되었다. 첨단 인공지능에서 반도체는 더욱 중요하다. 인공지능의 확산 정도가 미래 반도체의 소재 설계 공정기술에 영향을 미친다.

 

인공지능 발전으로 그래픽 처리 등 일부 분야에 사용되었던 병렬 컴퓨팅 기술이 재조명되었듯이, 뉴로모픽 프로세서 같은 우수한 인공지능의 상용화 노력이 진행 중이다. 반도체 기업과 신 비즈니스를 찾는 기업들도 인공지능 프로세서 개발에 열중이다.


PC 시대에서 모바일로 접어들면서 부품 소프트웨어 완제품 간 연관성이 높아지고 있다. 완제품의 차별화를 위해 소프트웨어 역량 축적에서 자체에 맞는 반도체를 만드는 현상이 늘고 있다. 애플 아이폰은 외부에 의존하던 주요 반도체를 직접 설계 생산하면서 내재화하고 있다. 다른 기업들도 주력 제품에 자체 반도체 기술 역량을 반영하고 있다.


구글은 인공지능 서비스 구현을 위해 자체 설계한 프로세서를 클라우드 데이터센터에 접목했다. 전체 시스템에 인공지능 역량을 확보하면서, 인텔과 엔비디아 같은 반도체 전문기업 의존도를 낮추고 있다. 마이크로소프트는 증강현실 시스템 홀로렌즈(Hololens)를 위한 인공지능 프로세서를 개발하고 있다. 자율주행차 시장 확대로 테슬라 역시 엔비디아의 자율주행 솔루션에서 벗어나 자체 인공지능 프로세서를 개발하고 있다.


아마존은 아마존 웹 서비스(Amazon Web Service)에서 인공지능 서비스 알렉사(Alexa) 비중 증가와 인공지능 스피커 에코(Echo), 물류, 배송 등에서도 인공지능 활용이 커지고 있다. 페이스북도 인공지능 서비스 강화를 위하여 데이터센터에 탑재할 자체 프로세서를 개발하고 있다.


자체 인공지능 프로세서가 새로운 사업 진출 포석이 될 수 있다. 인공지능 고도화는 자체 전후방을 융합해 IT 산업의 판도 변화를 이끌 플랫폼으로 성장할 수 있다.


인간에 근접한 수준의 인공지능을 구현을 위해 하드웨어와 소프트웨어 등 시스템 전반에 걸쳐 혁신이 진행되고 있다. 인공지능의 적용목적, 구현방법에 따라 인공지능 프로세서에 대한 접근 방식은 다르다. 

 

이를 활용하는 수단 역시 클라우드 컴퓨팅, 엣지 컴퓨팅(Edge computing), 단말기기 등 한층 다양해지고 있다. 인공지능 프로세서를 제조하는 다수 기업과의 유기적 협력으로 필요한 인공지능을 자사 제품에 접목하는 전략도 고려할 수 있다.

관련기사