" siri(으)로 태그된 글들"

iOS6 베타 버전 설치 인증샷

2012-06-12   //   alexken작성   //   기술  //  1 Comment

지난번 쓴 일본어 시리와 울프람 알파의 인공지능와 관련, 한국어 시리의 결과가 궁금했는데, 역시 의미파악은 실패. 영어 시리의 경우 시리가 의미파악에 실패해도, 울프람알파라는 든든한 백업요원이 있어, 지난번 “세상에서 제일 좋은 핸드폰” 이란 질문을 울프람알파가 받아 재미있는 결과가 나왔는데, 울프람알파는 한국어를 모른다는 서글픈 현실…

그리고 이건 경기도 굴욕 사진(이런거야 정식때면 다 해결되겠지만, “주변에 중국집을 알려줘”와 같은 위치기반 의미있는 정보 제공은 한동안 힘들어 보임)

그리고 TOMTOM의 한국 지도는 정말 설렁했음.

일본어 시리와 울프람 알파의 인공지능

2012-05-11   //   alexken작성   //   기술  //  1 Comment

이전 시리 관련 글에 이어서 두번째

오늘 트위터의 광파리(@kwang82)님이 소개해서 화제가 됐던 “세상에서 가장좋은 핸드폰”에 대한 시리의 답변

일본어 시리로 테스트 해보니 “지금 당신 손에 있는 전화기”라는 닭살 돋는 답변이 나왔다.

일본어 시리의 경우 문장의 의미를 파악하는데도 성공했고, 미리 잘 준비한 유머있는 답변도 훌륭했다.

하지만 소름 돋는 것은 울프람 알파의 질문을 해석하는 인공지능이다.
(클릭하면 울프람알파의 답변이 나온다. – 정말이지 이 시시콜콜한 분석은 가히 예술이다.)
영어 시리의 경우, 의미 분석에 실패하였고, 문자열 채 울프람 알파로 넘긴 듯 하다.

1+2 도 아니고

세상에서 가장좋은 핸드폰

의 의미가 과연 뭘까?

수학적으로 명제도 성립하지 않는 이 모호한 질문은 사람한테도 어려운 질문이다.

  • Q: 세상에서 가장좋은 핸드폰? (그게 뭔데?)
  • A1: 가장 많이 팔린 핸드폰
  • A2: CPU 클럭이 가장 빠른 핸드폰
  • A3: 사용시간이 가장 긴 핸드폰
  • A4: 앱스토어의 앱이 가장 많은 핸드폰

사람인 나도 정답을 모르겠다.

하지만, 울프람 알파는 이 질문을 슬기롭게도 “사용자 리뷰 점수”란 수치적으로 측정가능한 질문으로 치환해 냈고,
이는 사람이 봤을 때도 수긍할만한 해석이다.


스티브 잡스도 대단한 사람이지만 스티븐 울프람 박사 또한 정말 대단하네.

자연어처리 전공자로서 iPhone4S의 Siri에 대한 깨작거림.

2011-10-06   //   alexken작성   //   기술  //  17 Comments

한마디로 “Siri 짱”

이걸 좀 길게 깨작 거려볼 예정이다.

iPhone5가 아니고, iPhone4S라서 언론에선 많이 삐진 모양이다.
하지만 내 생각은 좀 다르다.

CPU 클럭이나, 메모리 용량, 통신 방식… 소위 하드웨어 스팩이 전부가 아니다.
이번 iPhone4S의 Siri의 의미는, 오바 좀 해서 수십년후 근대사 시험 문제로

인류 최초로 GUI를 넘어서 음성 기반 인터페이스를 대중화한 최초의 디바이스는 무엇인가? (주관식 5점)

에 대답해야 하는 날이 올 수도 있을만큼 중요한 획을 긋는 사건이라 본다.

Siri에 대한 자세한 내용은 casaubon님이 번역한 이제까지의 인공지능과는 다른 Siri란 글을 보면 된다.
이 제목에 전적으로 동감한다.

내 석사 전공은 자연어처리(Natural Language Processing)란 밥 벌이랑 거리가 멀고, 일반인에겐 생소한 분야였다. 한마디로, 컴퓨터가 인간의 말을 어떻게 알아먹게 할 것인가?를 연구하는 분야이다.

처리 수준에 따라 구문분석 – 의미분석 – 담화분석 순으로 난이도가 높아진다.

1. 구문 분석(Syntactic Analysis)

형태소 분석기(컴파일러에서 Tokenizer에 해당)로 문장을 형태소 단위로 쪼개고,
품사 태거로 각 형태소 별로 품사를 결정하고,
구문 분석기(Parser)로 파싱 트리까지 만들어 내면, 구문 분석의 과정이 완성된다.
이 과정까지만 잘해내도 칭찬 받는 수준이다.

2. 의미 분석(Semantic Analysis)

간신히 끝낸 구문분석 이후, 의미분석부터는 정형화된 방법론이 딱히 있는것도 아니고, 휴리스틱에 의존한 그럴싸한 방법들이 있을 뿐이지, 나도 이건 어떻게 하는지 모르겠다.

Siri에서는 상당 수준 이상으로 의미 분석을 하고 있다.
왜냐하면, 음성을 텍스트로 변환후, 구문분석 과정을 거친후, 어느 앱을 통해서 어떻게 대응할지를 결정해야 하기 때문이다.
날씨를 물어보는건지, 주가를 물어보는지, 길을 찾고 있는지에 따라 달리 대응하기 때문이다.

만약 음성을 텍스트로 변환하고 구문 분석 후 명사 위주의 인덱스어 추출후, 단순히 구글같은 검색엔진에 던지기만 한다면, 의미분석은 하지 않은 것이다.

3. 담화 분석(Discourse Analysis)

이제까지의 인공지능과는 다른 Siri에 보면
Q1) 샌프란시스코 날씨는?
Q2) 그럼 나파밸리는?
으로 연속 질문했을때 “그럼 나파밸리는?”이란 질문에, 지금까지 날씨에 대한 대화중이었다는 문맥을 이해하고, “나파밸리는?” 이란 문장도 날씨에 대한 질문이란 사실을 추론해낸다고 한다.
이게 담화(문맥/맥락/컨택스트) 분석이다.

나도 담화 분석까지 하는 상용화된 제품은 iPhone4S가 나오면 첨보는 것이 된다.

마지막으로 Siri가 연락처, 브라우저, 지도, …. 울프람 알파와 연동해서 동작하다고 하는데,
울프람 알파가 등장한다. 두둥~~
Mathematica라는 엄청 비싼 패키지 소프트웨어를 만든 회사이며,
http://www.wolframalpha.com/ 에서 온라인 검색도 지원하고 있다.

울프람 알파 덕분에, 단순이 박 아무개씨 전화 번호나, 서울 날씨 따위가 아닌,

  • y=sin( x ^ 2) 함수를 미분 해 줄래?
  • 오늘 오리온 자리 박명 시간은?
  • 오늘 월령은?

등등에 대해서도 대답할 수 있는 능력을 발휘할 것이라고 추측가능하다.
(울프람 알파에 대해서는 글 하나를 따로 써야 겠다.)

이게 가능한것은 iPhone4S CPU가 듀얼코어가 되어서도 아니고, 울프람 사이트에 쿼리 날리고, 서버에서 계산한 결과를 처리하는 것일 뿐이므로, 단말의 사양따위는 아무 상관 없다.

한가지 이해가 안되는 것은 기존 아이폰에서 Siri가 안되어야 하는 이유가 뭔지 모르겠다.
그냥 영업 전략상???

보지도 않은 제품에 대해 그냥 상상만으로 많이 떠들어 본다.
그만 씻고 자야겠다.