All Articles

DEVIEW 2016 DAY 2 후기

deview

올해 처음으로 네이버에서 주최하는 DEVIEW 를 다녀왔다. 예전부터 가고 싶었지만 수업 또는 출근 때문에 생각조차 안하고 있었다. 올해도 그렇게 지나가나 싶었지만 회사에서 2일차 티켓이 남는다는 소식을 듣고 재빨리 손을 들어 갈 수 있게 되었다.

2008년 처음 외부 공개 컨퍼런스가 된 이후 시간이 제법 흘러 이번이 아홉번째 DEVIEW 라고 한다. 작년 세션을 자세히 살펴보지는 않았지만 파이콘과 마찬가지로 딥러닝 주제가 예년보다 늘어난 것 같다. 국내에서 최대라고 볼 수 있는 데이터를 가지고 있는 네이버이기 때문에 이를 어떻게 활용하고 있는지 공유하는 자리가 많았다.

1일차 세션이 좀 더 업무과 연관된 내용이 많아 아쉬웠다. 유일하게 참석해 본 컨퍼런스인 파이콘에 비교를 해보자면 회사가 주최하는 컨퍼런스이고 규모가 큰 회사에서 실제로 사용하고 있는 서비스에 대한 내용이 주를 이루기 때문에 좀 더 전문적이고 진지한 분위기가 주를 이루었다. 이는 주로 네이버 소속 개발자 분들의 세션을 들어서 그렇게 느낀 것일 수도 있다.

전문 지식이 없는 수준이라 이해를 거의 하지 못 했지만 기록을 위해 간단한 소감을 남긴다.

  • 나는 서버를 썰 터이니 너는 개발만 하여라
    • Zinst 를 주제로 한 세션이었다. 조금 늦게 도착하여 앞부분 내용을 놓쳤는데 발표 자료를 다시 보니 예전에 Yahoo Korea 에 다닐 때 잘 썼던 Yinst 의 컨셉을 기반으로 만들었다고 한다. 개발자들이 개발을 편하게 하기 위한 DevOps 도구로 개발 환경에서 서버 구성을 편하게 하고 개발자들이 직접 배포도 할 수 있다. Bash로 제작되었다는 것이 신기한 부분이었다.
  • 딥러닝을 활용한 이미지 검색: 포토요약과 타임라인
    • 여기서 말하는 이미지 검색은 이미지로 검색을 하는 것이 아닌 텍스트로 이미지를 검색하는 걸 얘기한다. 네이버에서 검색을 했을 때 딥러닝 기술을 통하여 이미지들이 어떤 방식으로 보여지는지 공유하였다. 포토 요약과 타임라인 두 개의 서비스에 대해 각각 발표가 진행되었다. 특히 이미지 타임라인에 대한 내용이 흥미로웠다. 특정 연예인을 검색했을 때 이 연예인의 사진을 이벤트 별로 정리하고 사용자에게 보여주는 서비스였다. 이벤트 별로 정리되는 것은 당연하고 적당한 양의 사진이 최대한 비슷하지 않은 사진들로 다채롭게 보이게 하는 것이 서비스의 목표였다. 당연한 것이지만 생각없이 보던 사진들에도 내부적으로는 다양한 기술이 쓰이고 있다는 점을 다시 깨닫게 되었다.
  • Kaleido 비긴스: 세계 최초 데이터타입 기반의 동기화 Back-end as a Service
    • 네이버에서 만들고 있는 BaaS 플랫폼인 Kaleido 에 대한 내용이었다. BaaS 인 만큼 멀티플랫폼 상태의 동기화에 대한 고민이 많이 느껴졌다. 데이터 타입을 operation 단위로 동기화하는 것이 특이점이며 Parse, Cognito, Firebase 의 특징과 비교하며 앞으로의 발전 가능성까지 발표하였다. 발표와는 별개로 Firebase 를 제대로 써 봐야겠다는 생각이 들었다.
  • Backend 개발자의 Neural Machine Translation 개발기
    • 기계 번역을 주제로 발표하였다. 자체 기술로 개발한 기계 번역 시스템으로 성능이 많이 좋아졌고 블라인드 테스트에서도 좋은 결과를 얻어 성과를 얻고 있다고 한다. 네이버에서 출시한 번역 앱인 Papago 도 이 엔진을 사용하고 있다. 마지막에는 10년 동안 백엔드 개발자였던 발표자가 딥러닝 분야로 넘어오면서 느낀 점을 공유하였다. 기존 개발자도 노력하면 진입할 수 있는 분야지만 꼼꼼한 성격이 요구되고 인내심이 필요한 분야라고 하였다. 각각의 주특기를 가진 사람들이 모여 팀을 이루어 강력한 팀이 되어 좋았다고 한 점이 부러웠다.
  • 네이버 콘텐츠 통계서비스 소개 및 구현 경험 공유
    • 밖의 부스에서 시간을 보내느라 앞부분을 조금 놓쳤다. 네이버 콘텐츠 통계 서비스를 위한 로그와 데이터를 어떤 아키텍쳐로 어떤 방식으로 처리하고 있는지 공유하였다. 온갖 관련 기술을 다 조사하고 삽질하면서 구축한 것 같았고 발표자도 쉽지 않은 과정이었기 때문에 이런 유용한 경험들이 좀 더 공유되었으면 한다는 말로 발표를 마쳤다.
  • 딥러닝 예제로 보는 개발자를 위한 통계
    • 왠지 네이버에서 좀 높은 직책에 있는 분 같았는데 머신 러닝을 오래 전부터 공부했다는 것을 강조했다. 2012년 뒤늦게(?) 딥러닝을 처음 시작했을 때 했던 착각과 이해하지 못 했던 블랙박스들을 통계학을 공부하고 접목해보면서 Breakthrough 로 만들 수 있었다고 한다. 자신만의 방식으로 통계학을 다시 정리하고 이를 어떻게 적용할 수 있을지 고민하는 내용이 많이 담겨있었다.

아쉬운 점

  • 관련 기술 기초를 모르니 어려웠다.
  • 알아도 어려웠을 것이다.(?)
  • 조금 의도하긴 했지만 결국 네이버 세션만 들어갔는데 굳이 그럴 필요는 없었다.
  • 다른 회사들 세션은 파이콘과 조금 겹쳐서 안 들어간 점도 있다.
  • 그래도 다양한 주제에 대하여 자극이 될 수 있고 다른 레이어와 사람들, 회사를 통해 자극이 되는 시간이었다.
  • 또 기회가 된다면 내년에도 오고 싶다.

Published Oct 26, 2016