인공지능 톺아보기_칩·플랫폼부터 활용까지 ①
인공지능 톺아보기_칩·플랫폼부터 활용까지 ①
  • 오현식 기자
  • 승인 2017.12.26 08:46
  • 댓글 0
이 기사를 공유합니다

AI 플랫폼_아마존·MS·구글 등 메이저들 ‘각축장’

구글 딥마인드가 개발한 알파고가 프로바둑 기사인 이세돌 9단을 꺾으면서 촉발된 인공지능의 바람이 이제는 실생활 영역으로 빠르게 들어서고 있다. 자율주행차, 머신비전 등 산업계 곳곳에서도 인공지능을 덧대어 생산성과 효율성을 높이려는 시도가 곳곳에서 진행되고 있다. 인공지능이란 무엇이고, 현재 어떻게 활용되고 있을까? 인공지능의 이모저모를 알아본다.
[연재순서 : ①인공지능 플랫폼 ②인공지능 전용칩 ③감성컴퓨팅 스마트 스피커]

우선 개념정리부터 하자. 인공지능을 크게 나누면, 광의의 개념과 협의의 개념으로 나눠 볼 수 있다. AIArtificial Intelligence가 가장 포괄적 개념이며, AI 구현방안의 하나로 머신러닝과 딥러닝이 존재한다.

조금 더 구체적으로 살피면, AI, 즉 인공지능은 인간의 지능을 기계로 구현하는 것이고, 머신러닝(기계학습)은 인공지능을 구현하는 구체적인 접근방식이며, 딥러닝(심층학습)은 머신러닝을 실현하는 기술 중 하나이다. 최근에는 음성인식과 영상인식 및 번역 등의 분야에서 딥러닝이 큰 진전을 보이면서 관심이 집중되고 있다.

 
인공지능용 플랫폼 현황
가장 치열한 기술 개발 경쟁이 벌어지고 있는 곳은 인공지능용 플랫폼 부분이다.

구글은 인공지능 영역에서 우위에 서기 위해 전용 프로세서인 TPU를 개발했고, 이를 이용한 프레임워크인 ‘텐서플로우’를 가동하고 있다. 마이크로소프트는 8월 22일 캘리포니아 쿠퍼티노에서 개최된 ‘핫칩스 2017’에서 딥러닝 가속 플랫폼 ‘브레인웨이브 프로젝트’를 발표했다. 그리고 페이스북의 경우 GPU를 이용하여 인공지능 서버인 빅베이슨에서 인공지능을 구현했고, 아마존은 AWS를 통해 AI PaaS로 불리는 인공지능 서비스를 개시했다.

이와 유사한 개념으로 우리나라의 경우 LG CNS는 멀티 클라우드 기반의 AI 빅데이터 플랫폼인 DAPData Analytics & AI Platform를, 삼성SDS는 기업용 대화형 AI 플랫폼인 브리티Brity를, SK C&C는 IBM 왓슨Watson에 기반한 한국어 AI 플랫폼인 에이브릴Aibril을 발표한 바 있다.

구글의 텐서플로우TensorFlow는 머신러닝과 딥러닝을 위해 개발된 프레임워크로 2015년 11월 구글에서 오픈소스 형태의 소프트웨어로 공개됐다. 2011년부터 구글에서 내부적으로 사용되던 1세대 머신러닝 시스템인 디스트빌리프DistBelief를 이은 구글의 2세대 머신러닝 시스템인 셈인데, 오픈소스라는 이점에 더해 직관적이고 쉬운 고급 프로그래밍 언어로 알려진 파이썬 기반의 연산처리를 구현할 수 있어 다양한 분야에 적용되고 있다.

 
구글은 2016년 5월에는 연례 개발자대회인 ‘구글 I/O 2016’에서 TPUTensor Processing Unit라 불리는 새로운 칩셋을 공개했다. TPU는 기계학습(딥러닝)을 하는 데에 특화된 데이터 분석 및 딥러닝용 하드웨어이다.

TPU 하나에는 6만5536개의 산술논리 연산장치ALU : Arithmetic-Logic Unit가 탑재돼 있어 문제가 입력되면 동시다발적으로 6만5536회의 연산을 통해 가장 효율적인 해법을 찾게 된다. 벡터·행렬연산의 병렬처리에 특화된 프로세서로, 중국의 바둑기사 커제 9단을 상대한 인공지능 알파고 2.0Alphago 2.0의 두뇌는 TPU 프로세서를 단 1개만 작동시킨 것이다.

또한 구글은 클라우드 서비스인 구글 클라우드 컴퓨트 엔진Google Cloud Compute Engine에 TPU를 올려 클라우드 TPU 서비스도 제공하고 있다. 클라우드 TPU는 일반 클라우드 서비스를 이용하듯 간편하고 비용효율적으로 TPU 기반의 최적화된 컴퓨팅 인프라를 제공하는 서비스다.

 
마이크로소프트는 고성능 반도체 기술을 주제로 하는 연례 콘퍼런스인 ‘핫칩스 2017’을 통해 브레인웨이브Brainwave 프로젝트를 발표한 바 있다. 당시 발표를 살피면, 인공지능 클라우드를 위한 마이크로소프트의 접근방식은 구글과 사뭇 다른 양상을 보인다. 특정 알고리즘에 특화된 전용 프로세서를 개발하는 것이 아니라 FPGAField-Programmable Gate Arrays로 불리는 전용칩을 사용하는 방향을 설정하고 있는 것이다.

마이크로소프트에 따르면, 클라우드 서비스인 애저Azure에서는 FPGA 칩을 기반으로 고성능 AI가 구동될 예정이다. 이는 AI를 구동시키기 위한 데이터센터와 인터넷 환경까지 모두 제공하는 HaaSHardware as a Service는 물론 FPGA 칩 기반의 가속까지 아우름으로써 차별화와 성능우위를 확보하겠다는 전략으로 풀이된다. 이러한 분산 신경망 모델을 구현하기 위한 밑그림은 고성능의 맞춤 FPGA이다.

 
페이스북의 인공지능 플랫폼인 카페2Caffe2는 딥러닝을 위해 빠르고 확장 가능하며 이동이 용이한 프레임워크로 설계된 게 장점이다. 특히 페이스북이 개발한 AI 서버인 빅베이슨Big Basin에서 57배의 향상된 처리량을 나타냈는데, 2015년 말에 발표된 페이스북의 빅베이슨은 NVIDIA의 테슬라Tesla P100 GPU 8개를 포함하고 있다.

페이스북은 AI 알고리즘을 활용해 시각장애인들이 뉴스피드에 올라온 사진을 묘사한 내용을 스마트폰에서 음성으로 들을 수 있게 하고, 심각한 우울증 환자 등 정신 건강에 문제를 겪고 있는 사용자들을 분간하는 패턴인식 소프트웨어도 제공하고 있다.

 
아마존은 자연어 처리와 자동화된 음성인식 딥러닝을 활용하는 음성인식비서 서비스 알렉사Alexa에 이어 드론 기반의 항공화물 이니셔티브인 프라임 에어Prime Air, 딥러닝 기술과 컴퓨터 비전을 기반으로 계산대가 없는 오프라인 가게인 아마존 고Amazon Go도 선보이고 있는데, 이들 역시 인공지능 투자의 결과물이라고 볼 수 있다.

또한 아마존닷컴에서는 고객의 주문 배송을 미리 예측하여 구매 사이클에 관련된 전체 시간을 단축하는 혁신을 이루고 있으며, 이외에도 자율주행을 위한 컴퓨터 비전 시스템부터 미국 식품의약국FDA이 승인하는 의료이미지 처리, 넷플릭스 사이트에서의 동영상 추천, 핀터레스트의 이미지 검색 등 인공지능을 활용한 다양한 서비스가 AWS 클라우드 시스템을 통해 이뤄지고 있다.

이는 클라우드와 인공지능 플랫폼을 연관지어 제공하겠다는 아마존의 전략을 엿볼 수 있게 한다. 대규모 연산이 수행되어야 하는 인공지능에서는 대용량의 컴퓨팅 파워가 요구되는데, 인공지능에서 다루는 데이터의 크기가 커지고 모델 트레이닝이 잦아지면 컴퓨팅 파워에 대한 요구는 한층 더 높아지게 된다.

다시 말해 더 많은 컴퓨팅 파워를 요구하는 인공지능은 IT 워크로드가 기업 내 데이터센터에서 클라우드로 이동하는 물결을 가속화할 수 있는 동력으로, 전세계 1위 클라우드 사업자인 AWSAmazon Web Services의 앞선 기술력을 적극 활용해 기회를 모색하겠다는 전략이다. AI PaaSAI Platform as a Service는 이 전략의 선봉장이라고 말할 수 있다.



주요기사
이슈포토