주메뉴바로가기.. 본문바로가기

[WWDC16 ⑤] 애플이 웨어러블과 인공지능에 대응하는 방법

카카오스토리 네이버밴드 구글플러스

2016년 06월 24일 20:00 프린트하기

애플 개발자회의 WWDC16의 전체적인 흐름은 개발자에 맞춰져 있었고, 플랫폼과 관련된 부분이 중심을 이루고 있긴 하지만 운영체제 그 자체의 변화도 적지 않습니다. 크게 보면 운영체제의 개선은 그 자체로도 이용자들에게 다른 경험을 만들어주기도 하고, 생태계 전체의 흐름을 바꿔 놓기도 합니다. 앞으로 1년 동안 지금 쓰고 있는 애플 기기들이 어떻게 달라질지는 WWDC의 포인트 중 하나이기도 합니다.

 


확 달라진 애플워치, 앱 다루는 방법부터 고쳐


기기와 운영체제면에서 가장 크게 달라진 건 애플워치입니다. 워치OS3으로 애플워치는 완전히 다른 기기가 됐습니다.


애플워치는 이제 출시된 지 1년 반도 채 되지 않았습니다. 그 사이에 운영체제는 2.0을 넘어 3.0으로 달려가고 있습니다. 그리고 이제 어느 정도 완성 단계에 들어섰다고 볼 수 있게 됐습니다. 사실 하나의 마일스톤이 될 정도로 놀라게 하는 요소들이 많이 눈에 띕니다. 일단 최적화 부분입니다. 근본적인 문제인데, 애플워치가 빨라졌다는 얘기입니다.

 

최호섭 제공
최호섭 제공

워치OS3를 올린 애플워치는 앱이 정말 순식간에 뜹니다. 아이폰이나 맥에서는 당연한 것일지 몰라도, 상대적으로 프로세서 성능이 떨어지는 애플워치에게 앱을 실행시키는 것은 꽤 고달픈 일이었습니다. 그나마도 워치OS2에 들어서면서 네이티브 앱이 돌아갈 수 있도록 바뀌면서 조금 나아지긴 했지만 그래도 로딩 아이콘을 떼어낼 수는 없었습니다. 애플워치의 역할 자체가 앱보다 알림센터 역할로 좀 더 많이 쓰이게 된 것도 앱 로딩 속도를 무시할 수는 없을 겁니다. 그리고 운영체제만으로 애플워치는 빨라졌습니다.


하드웨어의 변화 없이 소프트웨어만으로 기기의 성격이 완전히 달라졌다는 건 꽤 흥미로운 일입니다. 이제 본격적인 최적화가 이뤄진 것이지요. 애플이 직접적으로 왜 앱이 이렇게까지 빨라졌는지에 대해 기술적인 부분은 아직 상세하게 공개하지는 않았습니다. 다만 워치OS3은 앱을 다루는 아키텍처를 완전히 바꿨고, 메모리를 적극적으로 활용합니다. 적절한 때에 미리 앱 화면을 만들어두는 것입니다.

 

최호섭 제공
최호섭 제공

애플의 목적은 결국 앱을 더 많이 쓰도록 하는 것이지요. 이는 기본 앱 뿐 아니라 서드파티 앱과 각 앱들이 워치페이스에 정보를 보여주는 컴플리케이션에도 골고루 적용됩니다. 같은 시간에 더 많은 정보를 주려면 인터페이스가 개선돼야 하고 반응 속도도 빨라야 합니다.


일단 워치OS3는 자주 쓰는 앱을 따로 관리합니다. ‘독’입니다. 용두 아래에 있는 사이드 버튼을 누르면 독이 뜹니다. 여기에 올라온 앱은 미리 백그라운드에서 업데이트를 해 둡니다. 메모리에 다 올려두고 정보를 내려받아 아예 화면까지 다 만드는 겁니다. 그리고 이것들을 ‘독’에 집어 넣을 수 있습니다. 이용자는 미리보기처럼 보이는 독에서 앱을 실행시키면 그 화면이 그대로 워치에 뜹니다. 날씨, 스포츠 경기 결과, 비행기 예약 현황’ 등의 정보는 다 지금 필요한 정보 그대로 보여줍니다. 이는 자주 쓰는 앱들을 손이 더 자주 가도록 만드는 것 뿐 아니라 앞서 이야기한 것처럼 메모리에 정보를 미리 업데이트해 놓을 앱을 고르는 과정이기도 합니다.


그럼 로딩 속도를 높이려면 앱을 새로 디자인해야 할까요? 그건 아닙니다. 메모리에 미리 캐시해두는 것으로 효율성을 높인 것이기 때문에 기존 앱도 메모리에 올려두는 것으로 속도가 개선됩니다. 개발에 따로 신경 쓸 필요가 없습니다. 다만 백그라운드 업데이트에 대해서는 개발자들의 손이 조금 필요합니다. 언제 업데이트할 것인가에 대한 정책은 필요하기 때문이지요. 스포츠 결과를 보여주는 앱과 날씨 앱이 모두 똑같은 주기로 업데이트를 할 필요는 없습니다. 이는 배터리 성능과도 연결되는 부분입니다.

 


계속 이어지는 웨어러블 기기 활용 고민


피트니스에도 변화가 생겼습니다. 일단 더 많은 움직임을 기록하고, 더 많이 움직이도록 자극하기 위해 운동량을 체크하는 링이 한 가운데에 들어가는 워치페이스가 나왔습니다. 그리고 운동량은 애플만 체크하는 게 아니라 나이키 플러스나 맵 마이 런 같은 앱들도 함께 체크하는데 이 정보 역시 워치 페이스에 그대로 보여줄 수 있게 됐습니다. 휠체어 미는 움직임을 운동량에 반영하는 모드는 박수도 많이 받았고, 개인적으로도 가장 인상 깊었던 부분이기도 합니다.

 

최호섭 제공
최호섭 제공

특히 개발자들이 애플워치의 하드웨어에 직접 접근할 수 있게 되면서 소리를 내거나 애니메이션 효과를 많이 보여주게 됐습니다. 피시타임의 낚시처럼 게임을 만들 수도 있고, 더 나아가 덱스컴(Dexcom)처럼 혈당을 실시간으로 체크할 수도 있습니다.


덱스컴의 혈당 측정기는 특히 눈에 띄었는데, 예전에는 앱이 애플워치에 알람을 주거나 수동으로 업데이트를 해야했지만 이제는 필요에 따라 거의 실시간으로 혈당을 관리할 수 있습니다. 이 기기로 혈당 관리가 쉽지 않은 소아 당뇨 관리에서 큰 효과를 보고 있다고 합니다. 건강은 결국 ‘즉시성’이 중요한데 애플워치의 업데이트는 이제 그 부분을 어느 정도 해결한 것으로 보입니다.

 

최호섭 제공
최호섭 제공

애플워치의 또 하나 재미있는 기능은 맥의 잠금을 푸는 것입니다. 키노트에서도 애플워치를 차고 맥 앞에 앉으면 저절로 잠금이 풀리는 영상을 보여준 바 있습니다. 너무 간단히 풀려서 불안할 수 있지만 꼭 그렇지만도 않습니다. 일단 이 기능은 무선 신호를 이용해서 애플워치와 맥이 직접 연결되는 것에서 시작합니다. 블루투스와 무선랜 신호를 쏘았다가 다시 되돌아오는 시간을 이용해 두 기기 사이의 거리를 측정합니다. 비콘 같은 기능이라고 보면 됩니다. 애플워치는 늘 아이폰과 관계가 있었지만 이 기능에 대해서는 아이폰이 빠지고 애플워치와 맥이 직접 통신을 합니다.


보안적인 가치가 있을까요? 일단 애플워치를 손목에 차고, 이 시계의 잠금이 풀렸다는 것은 시계 주인 본인이 쓰고 있다고 볼 수 있습니다. 그리고 암호가 풀린 기기가 아주 가까이에 있다면 결국 이용자가 맥 앞에 앉았다고 보는 것이지요. 2단계 인증인 셈입니다. 일단 앞에 있다고 판단하는 거리는 3미터 정도인데, 이는 베타를 겪으면서 어느 정도 조정이 될 것으로 보입니다. 기술적으로는 조금 차이가 있지만 이 시나리오 자체는 ‘맥ID’같은 앱으로 이미 안전과 편리함이 검증된 앱입니다. 이런 종류의 앱을 만든 앱 개발자들은 서운할 수 있겠네요.

 


애플이 인공지능을 풀어내는 방법


맥에는 시리가 들어갔습니다. 시리는 플랫폼을 넓힌 것 뿐 아니라 바깥 세상에 귀를 기울이기 시작했습니다. 애플의 앱과 서비스 뿐 아니라 서드파티 앱 개발자들이 직접 시리를 이용할 수 있습니다. 그 덕분에 아이폰에서는 말로 카카오톡 메시지를 보낼 수 있게 됐고, 맥에서는 파일 검색을 할 수 있습니다. 애플TV는 아이튠즈 뿐 아니라 넷플릭스 영화까지 찾아주게 됐지요. 아직 직접적으로 ‘봇’ 이야기까지 나오지는 않았지만 시리의 가능성 중 하나의 큰 덩어리가 풀린 셈입니다.

 

최호섭 제공
최호섭 제공

봇 이야기가 나왔으니 메시지도 잠깐 돌아볼까요. 몇 차례 이야기했던 것처럼 애플은 이 메시지를 플랫폼으로 만들었습니다. 메시지 안에서 앱을 이용할 수 있도록 했습니다. 다른 기업들이 내놓았던 것처럼 인공지능 봇이 들어가진 않았습니다. 애플은 봇 대신 앱으로 그 문제를 푸는 방법을 택했습니다. 기술의 수준이야 인공지능에 더 손을 들어줄 수도 있겠지만 사용자 경험으로 보자면 기존에 쓰던 앱을 메시지 안에서 이어서 쓴다는 것도 그리 나쁘진 않습니다. 아직은 이 방법이 더 익숙하기 때문이지요. 메신저 안에서 무엇을 한다는 흐름은 올해 마이크로소프트를 시작으로 구글, 페이스북, 애플까지 그대로 이어지는데 이는 결국 봇과 앱의 대결 구도로 가는 것처럼 보이기도 합니다.


꼭 봇은 아니지만 iOS에는 머신러닝이 들어갑니다. 먼저 딥러닝 기반의 사진 분석이 더해집니다. 사진은 머신러닝과 딥러닝 분야에서 가장 각광받는 기술이기도 합니다. CPU와 GPU를 이용해서 효과가 잘 나오기 때문이지요. 이제 iOS의 사진첩은 사진에 담긴 정보들을 분석해서 다양한 주제로 검색할 수 있게 됩니다. 비슷한 서비스들이 있긴 하지만 애플은 아이폰에 담긴 사진 분석에 서버나 인프라 등 별도의 외부 컴퓨팅을 이용하지 않습니다. 기술적인 문제보다 보안적인 이유 때문입니다.

 

최호섭 제공
최호섭 제공

iOS는 미리 학습된 모델에 기반해서 아이폰, 혹은 아이패드의 CPU와 GPU만을 이용해 사진을 분석합니다. 사진을 서버에 업로드하거나 서버를 이용해서 분석하는 과정도 없다고 합니다. 특히 사진은 그 자체만으로 누구의 콘텐츠인지 기록이 잘 남고, 내용도 예민할 수 있습니다. 개인정보 수집을 최소화하는 애플의 정책과도 어느정도 맞아 떨어집니다.


그렇다고 아이폰을 쓰는 데 지장을 받을 정도로 자원을 차지하지는 않습니다. 사진 분석에 필요한 메모리는 40MB 정도고, 한 장을 분석하는 데 100만 분의 몇 초 단위이기 때문에 사진을 찍는 것과 동시에 분석이 끝납니다. 업그레이드 후 처음에는 시간이 조금 걸리긴 하지만 이후로는 의식하지 못할 수준이라고 보면 됩니다. 으레 딥러닝이라고 하면 서버에 올려서 분석하는 방법이 많이 쓰이는데 기기에서 분석하는 것으로 비슷한 수준의 결과물을 낼 수 있다면 또 다른 반향을 만들어낼 수도 있을 듯 합니다.


 

※ 필자소개
최호섭. PC사랑을 시작으로 최근 블로터까지 IT 분야만 팠다. 차에서 보내는 시간이 아까워서 들여다보기 시작한 노트북과 팜 파일럿 PDA는 순간이 아니라 인생을 바꿔 놓았다. 기술 하나에 일희일비하지 않고 역사와 흐름을 읽고자 한다. 세상은 늘 배울 게 많고, 기술은 거짓말하지 않는다고 생각한다.

카카오스토리 네이버밴드 구글플러스

2016년 06월 24일 20:00 프린트하기

 

혼자보기 아까운 기사
친구들에게 공유해 보세요

네이버밴드 구글플러스

이 기사가 괜찮으셨나요? 메일로 더 많은 기사를 받아보세요!

13 + 9 = 새로고침
###
과학기술과 관련된 분야에서 소개할 만한 재미있는 이야기, 고발 소재 등이 있으면 주저하지 마시고, 알려주세요. 제보하기

관련 태그뉴스