■ 딥러닝 (Deelp Learning)


(한글) 위키피디아 |  (영어) 위키피디아

Deep learning (deep structured learning or hierarchical learning) is a branch of machine learning based on a set of algorithms that attempt to model high-level abstractions in data by using model architectures, with complex structures or otherwise, composed of multiple non-linear transformations.


딥 러닝(Deep learning)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습(machine learning) 알고리즘의 집합 으로 정의 되며, 큰틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야라고 이야기 할 수 있다.



Deep learning is part of a broader family of machine learning methods based on learning representations of data. An observation (e.g., an image) can be represented in many ways such as a vector of intensity values per pixel, or in a more abstract way as a set of edges, regions of particular shape, etc. Some representations make it easier to learn tasks (e.g., face recognition) from examples. One of the promises of deep learning is replacing handcrafted features with efficient algorithms for unsupervised or semi-supervised feature learning and hierarchical feature extraction.


Research in this area attempts to make better representations and create models to learn these representations from large-scale unlabeled data. Some of the representations are inspired by advances in neuroscience and are loosely based on interpretation of information processing and communication patterns in a nervous system, such as neural coding which attempts to define a relationship between the stimulus and the neuronal responses and the relationship among the electrical activity of the neurons in the brain.


Various deep learning architectures such as deep neural networks, convolutional deep neural networks, and deep belief networks have been applied to fields like computer vision, automatic speech recognition, natural language processing, audio recognition and bioinformatics where they have been shown to produce state-of-the-art results on various tasks.


어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 이미지의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있으며, 이러한 노력의 결과로 deep neural networks, convolutional deep neural networks, deep believe networks와 같은 다양한 딥러닝 기법들이 컴퓨터비젼, 음성인식, 자연어처리, 음성/신호처리 등의 분야에 적용되어 최첨단의 결과들을 보여주고 있다.


○ 딥러닝 알고리즘

   ☞ Deep Neural network (DNN)

   ☞ Convolutional Neural Network (CNN)

   ☞ Recurrent Neural Network (RNN)

   ☞ Restricted Boltzmann Machine (RBM)

   ☞ Multilayer perceptron



△ neural network (source: oreilly)



■ Artificial Intelligence & Deep learning (인공지능과 딥러닝) - 머니투데이 연재 내용 요약


[딥러닝 ①] 인공지능과 딥러닝 빅데이터 안고 부활하다 - 한상기, 소셜컴퓨팅연구소 대표

http://news.mt.co.kr/mtview.php?no=2015022514525399240

인공지능(Artificial Intelligence)의 역사에 대해 잘 정리된 글

인공지능의 역사 (History of AI)


인공지능 분야는 1956년 존 매카시, 마빈 민스키, 나다니엘 로체스터, 클로드 샤논 같은 당시 최고의 정보과학자들이 다트머스대학에 모여 창시했다. 이후 이 분야는 수많은 혁신과 좌절, 새로운 도전이 반복적으로 이뤄진 인간 지성의 도전 영역이다. 물론 지능에 대한 연구와 추론 및 논증 능력에 대한 철학적 접근, 다양한 자동화기기 발명은 인간 문명과 함께 한 오래된 영역이다. 하지만 우리가 이야기하는 인공지능은 컴퓨터 시대에 들어오면서 컴퓨터 과학자의 본격적 연구대상이 됐다고 볼 수 있다. 1950년 앨런 튜링이 ‘기계가 생각할 수 있는가?’라는 도발적 질문을 던진 ‘컴퓨팅 기계와 지능’ 논문은 이후 지능을 갖는 기계에 대한 기초적 사유를 제시했다. 가장 유명한 ‘튜링 테스트’라는 이미테이션 게임은 이후 지능을 가진 개체를 판단하는 가장 기초적인 기준으로 제시되기도 했다. 그러나 1956년의 학회가 인공지능의 효시로 불리는 것은 당시 ‘학습과 기타 다른 지능의 특징을 기계가 시뮬레이션 할 수 있을 것이다’라는 선언에서 비롯한다. 인공지능으로 명명한 연구분야가 시작된 것이다.


1970년대까지 학자들은 검색을 통한 추론, 자연어 분석, 마이크로 세계에 대한 모델링을 통해 매우 긍정적 전망을 했다. 그러나 문제를 너무 쉽게 생각했다는 현실에 부딪치면서 첫 번째 인공지능의 겨울을 맞이했고, 모든 연구 지원이 끊겨 버렸다. 다시 1980년대에 들어오면서 인간의 지식을 여러 방식으로 저장하고 이를 기반으로 하는 논리적 추론기능을 첨가하면서 새로운 방식의 인공지능 접근이 이뤄졌다. 그럼에도 불구하고, 대부분의 노력이 난관에 부딪쳤고, 영국과 미국 등에서 투입한 막대한 자금도 더 이상 지속하지 못하면서 1990년대 초까지 다시 제2의 인공지능의 겨울이 찾아왔다. 1990년대까지 인공지능 접근방식은 인간의 지식을 저장하고 이를 추론하는 것은 하향식으로 지능을 구현하는 방식이다. 그러나 우리는 어떤 지식을 다양한 경험과 데이터를 통한 학습과정으로 축적하는 경우가 많다. 이런 문제를 접근하는 것이 ‘머신러닝’이다. 머신러닝은 결정 트리, 클러스터링, 베이지안 네트워크, 연관 규칙, 귀납적 논리 계획법, 유전 알고리즘 등 다양한 방식이 개발돼 왔다. 


학습을 위한 또 다른 접근방식으로 ‘인공 뉴럴 네트워크(ANN)’라고 부르는 연결주의적 접근이 부침을 거듭하면서 성장했다. ANN의 발상은 인간의 신경망 구조를 모방하면서 입력으로 들어오는 정보를 각각의 입력 노드에 배정하고, 이들을 주어진 함수를 표현하는 네트워크로 출력 노드를 통해 결과를 얻어낸다는 아이디어에서 출발했다. 1958년 프랭크 로젠블라트의 퍼셉트론이 등장하면서 주목을 받았다. 퍼셉트론은 학습과 의사결정을 하며, 언어를 번역할 수 있을 것이라고 기대를 모았다. 그러나 1969년 마빈 민스키와 세이무어 페퍼트가 펴낸 ‘퍼셉트론’이라는 책에서 퍼셉트론의 한계가 비판받으면서 이후 10년 간 이런 방식의 연결주의적 연구는 중단됐다.


그러나 1980년 쿠니히코 후쿠시마의 네오코그니트론, 1982년 존 홉필드, 데이비드 러멜하트 등에 의해 새로운 유형의 뉴럴 네트워크가 제안되면서 다시 연구 집단의 관심을 받기 시작했다. 특히 오류역전파 알고리즘(Back Propagation)을 통한 학습기법이 효과적인 결과를 보이면서 일부 연구자들은 의욕적으로 이 분야에 매달렸다. 이런 뉴럴 네트워크를 학습의 주요 방식으로 사용하는 것을 ‘딥러닝(Deep Learning)’이라고 부른다. 뉴럴 네트워크를 다층 구조로 구성하면서 입력층과 출력층 사이에 하나 이상의 숨겨진 층을 갖고 이를 딥 뉴럴 네트워크(DNN, 심층 신경망)이라고 부르기 시작했기 때문이다. 예를 들어 손으로 쓴 글자를 인식하는 뉴럴 네트워크라면 입력한 글자에 대한 이미지를 나눠 각각의 단위 이미지를 입력 노드에 적용하고, 노드가 활성화되면서 그 값이 어떤 가중치를 갖고 다음 단계의 노드에 전달된다. 두 번째 단계의 노드 역시 여러 개의 입력된 값에 의해 활성화 여부가 결정되며, 다시 다음 단계의 노드에 영향을 준다. 이런 단계를 거쳐 최종 출력 노드가 활성화되는지 결정된다. 뉴럴 네트워크의 행위나 특성은 사실 각 연결 링크에 부여된 수정 가능한 가중치에 의해 결정된다고 볼 수 있다. 


뉴럴 네트워크의 출력 노드가 A라는 글자에 활성화되는 것이라고 하면, 이 뉴럴 네트워크는 A를 인지하는 능력을 가질 수 있는 것이다. A라고 확인된 다양한 이미지를 활용해 네트워크의 여러 값을 조정하는 과정을 학습이라고 부르며, (엄밀하게 말하면 가르치는 지도학습) 학습된 뉴럴 네트워크는 그 다음에 주어지는 임의의 이미지를 갖고 A인지 아닌지를 판별하게 되는 것이다. 알파벳을 인식하는 뉴럴 네트워크라면 26개의 출력 노드를 갖는다고 생각할 수 있다. 


딥러닝 모델로는 고전적인 콘볼루셔날, 오류 역전파, 볼츠만 머신 네트워크, 서포트 벡터 머신(SVM) 등의 초기 모델에서 2000년 이후에 등장한, 제한된 볼츠만 머신(RBM)이나 리커런트 뉴럴 네트워크(RNN), 드롭아웃(DROPOUT) 같은 매우 다양한 알고리즘이 있다. 


2004년 학계에 큰 변화가 일어났는데, 그 중심에는 토론토대학의 제프리 힌튼 교수가 있었다. 2004년 캐나다 첨단 연구소(CIFAR)에서 50만 달러 정도의 적은 펀딩을 제공하자 제프리 힌튼 교수는 뉴럴 컴퓨테이션과 어댑티브 퍼셉션(NCAP) 프로그램을 만들어 컴퓨터 과학자, 생물학자, 전기공학자, 뇌과학자, 물리학자, 심리학자를 초대했다. 힌튼 교수는 1984년에 볼츠만 머신을 제안한 인공신경망 연구의 선구자이며, 2012년에는 그의 제자들이 다국적 제약사인 머크에서 주최한 신약 발견 경진대회에서 우승을 차지하기도 했다. NCAP에는 뉴욕대 얀 레쿤과 몬트리올대학 요수아 벤지오 등이 참여했다. 


2000년대를 넘어서면서 딥러닝 방식은 이미지 인식과 음성인식에 큰 성과를 나타내기 시작했다. 특히 정보처리를 위한 빠른 프로세서의 값이 싸지면서 구성할 수 있는 노드 수가 늘어나고, 수많은 실제 데이터를 얻을 수 있는 상황이 만들어지면서 빅데이터를 통한 학습이 성과를 보이기 시작했다. 2009년에 들어와서는 지도학습 방식의 딥러닝 알고리즘이 대부분의 패턴인식 경쟁에서 기존 방식을 능가하기 시작했다. 


2011년 NCAP 연구자 중 하나인 스탠포드대 교수 앤드류 응은 구글 안에 딥 러닝 프로젝트를 구성했고, 음성인식과 구글 플러스의 사진 태깅에 딥러닝 기술을 활용하기 시작했다. 이 연구 그룹은 2012년 1만 6000개의 컴퓨터 프로세서로 10억 개 이상의 연결을 갖는 뉴럴 네트워크를 이용한 자율학습 방식의 딥러닝 기술을 적용해 유튜브 안에 있는 1000만 개의 이미지 중에서 고양이를 알아낸 결과로 언론의 주목을 받았다.



[딥러닝 ②] 상상 속 기계가 스스로 학습 기계로 - 정상근, SK텔레콤 미래기술원 연구원

http://news.mt.co.kr/mtview.php?no=2015022514490867206

인공지능(AI)의 태동에서부터 발달과정 History에서 주요 맥락(규칙기반 AI, 연결주의 AI, 통계기반 AI, 신경망 기반 AI)에 대해 잘 정리한 글

신경망 기반 AI 의 부활-딥러닝


딥러닝(Deep Learning)은 신경망 기반 AI 의 부활이라고 할 수 있다. 신경망 기반 AI 가 통계 기반 인공지능에 권좌를 내주었던 2000년대 초반부터 지금까지, 현대 사회는 ‘인터넷’ 과 ‘모바일의 시대’ 로 변화했다. 인터넷의 공공재화 그리고 모바일을 통한 연결의 증가는 곧 데이터의 폭발적 증가로 이어져 현대사회는 빅데이터 시대를 맞게 됐다. 


충분한 양의 데이터와 이를 처리할 컴퓨팅 파워의 확보, 그리고 신경망에 대한 이해와 기술발달은 이론적으로는 훌륭했지만 시대를 앞서 나갔던 신경망 AI 의 부활을 야기했고 과거 머신러닝 방법론이 줄 수 없는 특별한 장점들을 제공했다. 우선 사람이 자질을 직접 디자인 하지 않아도 데이터만 충분하다면 스스로 발견해 낼 수 있게 됐다. 예를 들어 사람을 인식한다면 딥러닝 방식은 사람이 미처 생각지 못하는 사람을 표현하는 자질들을 스스로 학습한다. 숫자 9와 6의 예처럼 9를 이용해 잘 학습된 숫자 인식 모델은 소량의 추가 학습을 통해 숫자 6 역시 잘 인식하게 만들 수 있다.


두 번째로는 사물을 분산표상 방식으로 학습해 표현함으로써 사물의 유사도 정보를 표현 체계 안에 포함(Embedding)시킬 수 있게 됐다. 이는 수학적 방식으로 사물의 유사도를 계산할 수 있게 됨을 의미한다. 


예를 들어 원 핫 레프레젠테이션을 취하던 기존의 머신러닝 방법에서는 사과[0,0,1], 배[0,1,0], 공[1,0,0] 사이의 유사도가 모두 같지만 딥러닝 방법에서는 사과와 배의 거리가 사과와 공보다 가깝게 표현될 수 있다. 딥러닝은 어느 한 문제를 잘 풀면 이 과정에서 학습한 데이터를 다른 문제에 그대로 재활용할 수 있다. 예를 들어 자연어 처리에서 형태소 분석 훈련을 통해 학습한 중간단계의 결과물들은 그대로 구문분석이나 번역 문제에 재활용하거나 직접 연결해서 사용할 수 있다.


딥러닝은 또 우리 주변에서 쉽게 구할 수 있는 데이터들을 모두 활용할 수 있다는 장점이 있다. 딥러닝은 교사 데이터를 활용하기 전에 주변에 있는 데이터들을 활용해 선학습(Pre-Training)을 수행한 후, 마지막으로 교사데이터를 활용해 최종 성능을 올리는 방식을 취한다. 적은 비용으로 구할 수 있는 일반 데이터들을 활용해 성능을 향상시킬 수 있는 토대를 제공하는 것이다.



[딥러닝 ③] 폭넓은 관심과 남다른 통찰로 딥러닝 시대 열어 - 이동윤, LG CNS 빅데이터분석컨설팅팀 연구원

http://news.mt.co.kr/mtview.php?no=2015022514293292353

딥러닝의 혁명을 이끈 대가들에 대해 소개한 글

- 제프리 힌튼(Geoffrey Hinton), 얀 레쿤(Yann LeCun), 요슈아 벤지오(Yoshua Bengio), 유르겐 슈미트후버(Jurgen Schmidhuber), 앤드류 응(Andrew Ng), 페이페이 리(Fei Fei Li), 루슬란 살라쿠트디노프(Ruslan Salakhutdinov), 데미스 하사비스(Demis Hassabis)



[인공지능과 딥러닝 ④] 진화하는 머신러닝 알고리즘 ... 점점 더 '사람처럼' 

- 최재식, 울산과학기술대 전기전자컴퓨터공학부 교수

http://news.mt.co.kr/mtview.php?no=2015022514262239360

머신러닝 & 딥러닝 알고리즘에 대해 소개한 글

- 베이지안 네트워크(Bayesian network), 신뢰 전파법(Belief Propagation), 제한적 볼즈만 기계(Restricted Boltzmann Machine), PAC(Probably Approximate Correct) 러닝, 에이다부스트(Adaboost), 랜덤 포레스트(Random Forest), 그레이디언트(Gradient) 부스팅, 초기 매개변수에 대한 선행학습 없이도 정확한 학습 가능한 CNN(Convolutional Neural Network), 순환 인공신경망(Recurrent Neural Network), 중첩 정리(superposition theorem)



[인공지능과 딥러닝 ⑤] 사람 알아보고 말 알아듣고 ... 알아서 학습 

- 김진형, 소프트웨어정책연구소장 / 김인중, 한동대학교 교수

http://news.mt.co.kr/mtview.php?no=2015022514170822557

기계학습과 딥러닝 알고리즘 발전 과정에 대해 상세히 소개한 글

딥러닝의 열풍


실제로 딥러닝은 최근 매우 다양한 응용분야에 적용돼 기존 방법을 압도하는 탁월한 성능을 보이고 있다. 음성 및 영상인식 분야에서 딥러닝은 당시 최고 기록들을 큰 차이로 넘어서는 놀라운 성능을 보였다. 필기한자 인식 경쟁에서 상위를 차지한 인식기들은 모두 딥러닝을 사용한 것이다. 페이스북은 딥러닝을 얼굴인식에 적용했다. 


2014년 97.25%의 인식률을 보이는 등 최고 기록을 보였다. 딥러닝은 대용량 물체인식에서도 탁월한 성능을 보여준다. 2012년 이후 대부분의 상위 랭커들은 딥러닝에 기반한 방법을 사용하고 있다. 국내에서도 한동대학교가 필기한글 인식에 딥러닝을 적용, 우수한 성과를 거뒀다. 네이버와 다음도 음성인식에 적용해 상당한 성능 개선효과를 얻은 바 있다.


딥러닝 학습을 위한 컴퓨팅 환경이 좋아졌다고는 하지만, 많은 데이터에 깊은 신경망을 학습시키기에 대학의 컴퓨팅 능력은 제한적이다. 구글이 수행한 고양이를 인식하는 할머니 뉴런 구축 실험에 얼마나 많은 컴퓨팅 능력이 필요했는지가 이를 잘 보여준다. 그동안 여러 대학의 실험에서는 저수준 특징을 추출하는데 그쳤다. 하지만 구글팀은 유튜브에 올려진 1000만 건이 넘는 영상을 입력, 1만 6000개의 CPU를 이용해 10억 개의 연결강도를 학습시켜 3일 만에 성공적으로 고양이를 인식하는 할머니 뉴런을 학습했다. 


인간의 두뇌는 100조 개의 연결로 구성돼 있다고 하니 갈 길은 멀다. 딥러닝 기술은 MIT가 2013년을 빛낼 10대 혁신기술 중 하나로 선정했고 가트너는 2014 세계 IT시장 10대 주요 예측으로 꼽았다. 애플, 구글, 마이크로소프트, 페이스북, 바이두 등 세계적인 기업들이 딥러닝에 집중하고 경쟁적으로 학계의 전문가들을 영입하고 있다. 대학의 과학자들이 더 깊고 큰 신경망을 학습시키기 위해 컴퓨팅 능력을 갖춘 기업 연구소로 이직하는 현상이 일어나고 있다.



[인공지능과 딥러닝 ⑥] 일자리 둘러싼 인간과 컴퓨터의 생존경쟁 - 도강호 기자

http://news.mt.co.kr/mtview.php?no=2015022514122770344

인간보다 뛰어난 능력을 보이는 기계(인공지능)에대해 간략히 소개하고 이로 인한 인간의 마래 일자리 변화 대한 고찰 




[인공지능과 딥러닝 ⑦] 멀리 보고 황금알 낳을 거위를 키워라 - 강동식 기자

http://news.mt.co.kr/mtview.php?no=2015022514085950507

딥러닝 기술개발 조건과 꾸준한 연구가 어려운 국내 풍토에 대해 지적한 글

미국과 2년 넘는 인공지능 기술격차


73.1과 2.3년. 이 두 가지 숫자는 우리나라의 인공지능 기술수준을 나타내는 수치다. 


73.1은 인공지능 분야에서 가장 앞선 국가인 미국의 기술수준을 100이라고 했을 때 우리나라의 인공지능 기술수준이고, 2.3년은 미국과의 인공지능 기술격차를 기간으로 환산한 것이다. 국가 산업기술 연구개발을 기획·평가·관리하는 한국산업기술평가관리원이 2013년 산업기술수준조사를 통해 이 같은 수치를 도출했다.


최근 우리 정부와 연구기관, 민간기업들이 인공지능에 대한 투자와 연구를 강화해 2013년에 비해 기술수준이 높아졌을 것으로 보인다. 하지만 미국의 글로벌 IT기업들이 우리 기업과는 비교가 안 될 정도의 막대한 투자를 바탕으로 인공지능, 특히 딥러닝 분야에 대한 연구를 강화해온 것을 감안하면, 2013년 이후 현재 미국과 한국의 인공지능 기술격차가 줄어들었다고 보기 어렵다.


또 산업기술평가관리원의 같은 조사에서 국내 인공지능 기술수준은 유럽과 일본에도 뒤지는 것으로 나타났다. 미국을 기준으로 유럽은 85.7, 일본은 83.7의 인공지능 기술수준을 갖춘 것으로 평가돼 우리나라보다 10점 이상 높았다. 



[인공지능과 딥러닝 ⑧] 구글 · IBM · 페이스북 · 애플, 치열해지는 주도권 경쟁 - 최현숙 기자

http://news.mt.co.kr/mtview.php?no=2015022514063559191

글로벌 기업의 딥러닝 전략에 대해 소개한 글

‘어려운 일은 쉽고, 쉬운 일은 어렵다(Hard problems are easy and easy problems are hard)’는 모라벡의 역설(Moravec’s Paradox)은 인공지능의 한계를 보여준다. 천문학적 단위의 수를 계산하거나 복잡한 수식을 푸는 것이 쉬운 반면, 사람이 무의식적으로 하는 보고, 듣고, 느끼고, 인식하는 모든 일상의 행위가 컴퓨터에게는 어렵다는 말이다. 


최근 머신러닝, 특히 딥러닝 기술의 비약적인 발전으로 인공지능이 이 같은 한계를 넘어설 조짐을 보인다. 딥러닝 권위자 앤드류 응 스탠퍼드대 교수는 지난해 10월 MIT테크놀로지리뷰의 엠테크(EmTech) 컨퍼런스에서 “전통적인 알고리즘의 경우 투입되는 데이터의 양이 많아질수록 속도가 느려지고 결국 작동을 멈추게 되는 반면, 딥러닝 알고리즘은 데이터를 많이 넣을수록 잘 동작하는 것이 가장 큰 매력”이라고 말했다. 인공지능의 큰 걸림돌이었던 방대한 정보와 연산능력이 딥러닝의 경우 오히려 좋은 결과를 내는 요인인 것이다. 응 교수는 또 딥러닝 기술의 빠른 발전속도를 들며 곧 음성인식과 시각 검색에서 대대적인 발전이 있을 것이라고 예측했다. 


인공지능을 통해 인식 성능이 높고 사용하기 편한 서비스를 제공하면 이용자가 늘고 그만큼 데이터도 늘어날 것이다. 데이터가 쌓일수록 딥러닝을 통해 영리해지고, 이미지나 음성 등의 인식률이 높아진다. 이용자가 늘어날수록 인공지능의 기능이 향상돼 다른 회사와의 기술 격차가 더 커질 것이다. 지금 글로벌 IT 대기업들은 ‘승자 독식’의 전쟁 한복판에 서 있는 셈이다. 



[인공지능과 딥러닝 ⑧-1] 사람의 뇌에 '구글'을 이식하다 - 최현숙 기자

http://news.mt.co.kr/mtview.php?no=2015022514033652676

구글(Google)의 딥러닝 전략


△ 2014년 구글은 사진 이미지를 문장으로 묘사하는 기술을 선보였다. 오른쪽으로 갈수록 오류가 있다.



[인공지능과 딥러닝 ⑧-2] MS의 새 승부수, 인공지능 비서 '코타나' - 도강호 기자

http://news.mt.co.kr/mtview.php?no=2015022513564643448

마이크로소프트(MS)의 딥러닝 전략

- '코타나(Cortana)'는 MS Xbox의 인기게임 헤일로에 등장하는 인공지능 캐릭터 이름이다.


△ '애저(Azure)' 머신러닝을 활용한 데이터 분석 결과



[인공지능과 딥러닝 ⑧-3] 사진 속 얼굴, 사람처럼 맞춘다 - 조아름 인턴기자

http://news.mt.co.kr/mtview.php?no=2015022513534188113

페이스북(Facebook)의 딥러닝 전략


△ 딥페이스를 이용해 미국 배우 실베스터 스텔론의 얼굴을 인식하는 과정



[인공지능과 딥러닝 ⑧-4] 왓슨 · 시냅스 칩으로 '인공두뇌' 완성 - 최현숙 기자

http://news.mt.co.kr/mtview.php?no=2015022513504343895

IBM의 딥러닝 전략

△ IBM의 인공두뇌 개념과 시냅스 칩의 발전



[인공지능과 딥러닝 ⑧-5] 개인비서 시대 연 '시리' 제2 도약할까 - 임혜지 인턴기자

http://news.mt.co.kr/mtview.php?no=2015022513474452937

애플(Apple)의 딥러닝 전략


△ 애플(Apple)의 시리(Siri)



[인공지능과 딥러닝 ⑧-6] 관심 · 돈 · 사람 ... 딥러닝을 위한 모든 것을 갖췄다 - 강동식 기자

http://news.mt.co.kr/mtview.php?no=2015022512024725523

중국 기업 바이두(Baidu)와 알리바바(Alibaba)의 딥러닝 전략


△ 2014년 5월 바이두에 합류한 앤드류 응(Andrew Ng)




[인공지능과 딥러닝 ⑨] 9회 말 역전 만루홈런 꿈꾼다 - 강동식 기자

http://news.mt.co.kr/mtview.php?no=2015022511592421092

국내 기업의 딥러닝 전략에 대해 소개한 글

국내 민간 영역에서 가장 활발하게 딥러닝에 대한 연구와 활용이 진행되는 곳으로 네이버가 꼽힌다. 네이버는 2012년 말부터 딥러닝을 연구하기 시작해 2013년 딥러닝을 적용한 음성인식 검색 서비스를 출시했고, 현재는 N드라이브 사진 분류 서비스와 지식iN 서비스에도 딥러닝을 적용하고 있다. 최근 다음카카오도 인공지능에 대한 투자를 강화하고 있다. 이 회사는 즉답 검색 서비스, 여행지 추천 서비스 등 검색 서비스에 머신러닝을 적용해 서비스 품질을 높이고 있다.


인공지능도 기술 스타트업의 역할이 중요한 분야로, 이미 글로벌 IT대기업들은 스타트업의 기술을 확보하기 위해 인수합병(M&A)에 나서고 있다. 국내도 최근 인공지능 분야의 스타트업이 하나 둘씩 나타나고 있어 기대감을 갖게 한다. KAIST 출신의 이미지 인식기술 스타트업인 클디는 지난해 글로벌 IT 대기업과 선도적인 대학 출신 팀들이 참가한 세계 이미지 인식 대회 ‘ILSVRC’에서 물체 분류 및 위치 인식부문 7위에 올라 관심을 모았다. 이 회사는 올해 사업방향을 명확하게 설정하고 서비스를 시작할 계획이다. 


또 다른 인공지능 스타트업인 솔리드웨어는 머신러닝 기술 기반의 알고리즘을 활용하는 기업용 빅데이터 분석 솔루션을 제공하고 있다. 딥러닝, 부스팅, SVM 등 다양한 머신러닝 알고리즘을 보유한 솔리드웨어는 최적화된 머신러닝 알고리즘을 적용해 악사(AXA)다이렉트코리아와 각종 데이터 분석을 통해 예측모델을 만들고 있다.


한편, 국내 대형 보험사도 고객의 답변 결과를 꾸준히 축적한 데이터를 딥러닝 기술을 활용해 분석해 이용자의 건강상태를 예측하는 프로젝트를 진행하고 있다. 게임 분야에서도 인공지능이 관심을 모으고 있다. 특히 엔씨소프트가 인공지능에 남다른 열정을 보이고 있다. 김택진 엔씨소프트 대표는 지난해 말 “엔씨소프트가 집중하고 있는 새로운 혁신은 인공지능 기술이다. 인공지능을 기반으로 한 게임 플레이를 만드는 일에 많은 개발자가 젊음을 불태우고 있다”고 말했다. 


인공지능 기술 전담팀인 AI랩을 운영하고 있는 엔씨소프트는 올해 선보이는 게임들에 인공지능을 적용할 것으로 알려졌다. 또 박용만 두산그룹 회장은 올해 대한상공회의소 신년사에서 과감한 혁신과 투자에 나서 시장을 선도해야 할 기술로 사물인터넷, 3D프린팅과 함께 인공지능을 꼽았다. 이처럼 대기업 회장까지 인공지능을 직접 언급하는 것은 국내에서도 인공지능의 중요성에 대한 공감대가 형성되고 있다는 반증으로 풀이된다.


한동안 인공지능이 주목받지 못했던 대학에서도 최근 들어 관련 연구가 활발해지고 있으며, 성과도 나타나고 있다. 장병탁 서울대 교수팀은 최근 만화영화를 보고 그림(물체)과 언어(단어)가 연합된 개념을 습득하며 스스로 지능을 향상시키는 ‘상상력 기계(Imagination Machine)’를 개발했다고 밝혔다. 연구팀에 따르면, 이 기계에 1232분 분량의 유아 애니메이션 ‘뽀로로’ 에피소드 183개를 스캔했고, 실험 결과 뇌신경망을 닮은 연상 메모리 구조가 장면과 대사간 의미적 관계와 시간적 줄거리를 학습했다. 


학습 후에는 그림을 통해 연상 작용으로 추론해 대응되는 언어 대사를 생성하고, 대사가 주어지면 그림을 추론했다. 연구팀은 스캔하는 영화 데이터를 변경해 다른 도메인 지식도 습득할 수 있다고 설명했다. 정부도 최근 인공지능 기술 개발에 투자를 강화하기 시작했다.


한국전자통신연구원, KAIST, 포스텍, 솔트룩스 등 26개 연구기관 366명이 참여하는 엑소브레인 프로젝트가 대표적이다. 2013년 시작된 이 프로젝트는 2023년까지 10년 간 총 연구비 1070억 원이 투입되며, 1단계가 종료되는 2017년에는 IBM 왓슨을 따라잡고 2단계부터는 컴퓨터 스스로의 지식학습을 통해 지식을 축적하는 기술을 확보하는 것을 목표로 하고 있다. 



[인공지능과 딥러닝 ⑨-1] 한 발 앞서 딥러닝 적용... 검색 품질 개선이 최종 목표 - 도강호 기자

http://news.mt.co.kr/mtview.php?no=2015022511514749833

국내 AI 대표주자 - 네이버의 딥러닝 전략



[인공지능과 딥러닝 ⑨-2] 딥러닝으로 무명 스타트업서 글로벌 루키 도약 - 조은아 기자

http://news.mt.co.kr/mtview.php?no=2015022511492540059

국내 AI 대표자 - 이미지 인식 기술 기업, 클디(Cldi, www.cldi.io)



[인공지능과 딥러닝 ⑨-3] 최적의 머신러닝으로 숨은 가치 찾는다 - 도강호 기자

http://news.mt.co.kr/mtview.php?no=2015022511013987122

국내 AI 대표주자 - 기업(특히 금융회사)용 머신러닝 기반 빅데이터 분석 솔루션 기업, 솔리드웨어(Solidware, solidware.io)



[인공지능과 딥러닝 ⑨-4] 앞선 음성인식 기술, 영상으로 확장 - 도강호 기자 

http://news.mt.co.kr/mtview.php?no=2015022510561563182

국내 AI 대표주자 - 다음카카오




[인공지능과 딥러닝 ⑨-5] 전문가 수준 인공두뇌 개발 목표 - 도강호 기자

http://news.mt.co.kr/mtview.php?no=2015022510532195143

국내 AI 대표주자 - 한국전자통신연구원(ETRI)





+ Recent posts