유비쿼터스 산업 동향

트렌드 [UBIU.net INDUSTRY REPORT 2] 유비쿼터스 컴퓨팅 기술 실용화를 위한 기술 동향 분석
[UBIU.net INDUSTRY REPORT 2] 유비쿼터스 컴퓨팅 기술 실용화를 위한 기술 동향 분석
정기욱  2006/10/27
- Download #1 : IM000623.JPG (351.8 KB), Download : 27
- Download #2 : 20060528_정기욱_DuzonUCL.hwp (244.5 KB), Download : 74

[UBIU.net INDUSTRY REPORT 2]
전자부품연구원 전자정보센터 산업동향리포트


--------------------------------------------------------------유비쿼터스 컴퓨팅 기술 실용화를 위한 기술 동향 분석---------------------------------------------------------------


                                                                                               * 정기욱  kiwook@duzonucl.com

                                                                                               * 더존 IT 그룹 유비쿼터스 실용화 연구소 소장
                                                                                                 서울시 영등포구 양평동 4가 2번지 이레빌딩 15층 150-967


유비쿼터스 컴퓨팅을 패러다임적 동향으로 이해하는 경향 때문에 기반 기술에 대한 이해를회피하고 정책적인 시각으로 바라보게 된다. 이는 정보화 패러다임의 통신 단말 기술 또는 에플리케이션의 컨버전스를 구성하는 프레임워크이다. 대부분 농경사회, 산업화 사회, 정보 통신 사회, 그리고 유비쿼터스 사회라고 이해하지만, 이는 정확한 표현이 아니다. 유비쿼터스 컴퓨팅은 농경사회와 산업화 사회의 물리적(Physical)측면과 정보통신사회의 가상정보(Virtual)의 속성을 연계(bridge)하는 역할을 기술 철학적 개념으로 이해된다. 유비쿼터스 컴퓨팅의 혁명적 관점은 일반 인문사회학적 패러다임이기 보단, 컴퓨팅 패러다임에서의 제3세대 컴퓨팅의 관점으로 이해하는 것이 더 정확하다. 제3의 컴퓨팅 패러다임은 애플사의 Allan Kay에 의해 제시되었으며, Calm Computing, 즉 인간의 삶의 배경 속에 자연스럽게 물리적인 사물 또는 상황과 조화를 이루며 스며드는 컴퓨팅 객체 환경이다. 제 1 세대 컴퓨팅은 메인프레임, 2세대는 PC, 노트북을 의미한다. 그런 의미에서 정보통신 사회 이후는 유비쿼터스사회 라는 표현보다는 지식정보화 사회라는 패러다임적 표현이 정확하다. 이러한 사실은 일반대중의 유비쿼터스에 대한 관심도에 따라 증명된다. 아직 비현실적이며, 실생활에서 체험할 수 없기 때문에 일반 혁명으로 분류하기에는 무리가 있다. 다만 유비쿼터스 컴퓨팅은 패러다임 전환에 있어서의 매개역할을 하게 된다. 유비쿼터스 컴퓨팅의 의의는 "삶 속에 스며드는 쉬운 컴퓨팅 환경" 구현이다. 본 보고서를 통해 유비쿼터스 컴퓨팅이 구현하고자 하는 바를 설명하도록, 분류된 유비쿼터스 컴퓨팅 속성 및 연구 사례를 제시하도록 하겠다.

I. 유비쿼터스 컴퓨팅의 정의에 따르는 한계점
유비쿼터스 컴퓨팅의 컴퓨팅 개념적 이해는 모든 객체에 지능(Intelligence)과 이를 표현하고 상호작용하는 인터페이스 기술이 아주 자연스럽게 표출되는 인간 중심형 컴퓨팅이라고 말할 수 있다. 기존의 정보통신 기술은 사용자의 패턴 유형 등을 심도 있게 고려하지 않았기 때문에, 사람과는 연관성 없는 기술들이 개발되어 도태되기도 하였다. 그런 의미에서 유비쿼터스 컴퓨팅 패러다임에서의 기술수명주기(Technology Life Cycle)는 인간의 효용가치와 기술의 실용성, 현실성에 의거하여 유지된다. 유비쿼터스 컴퓨팅은 매우 폭 넓은 개념이기 때문에 하나의 개념으로 풀이 하다 보면, 여러 기술들의 존재 개념이 왜곡될 수도 있다는 것이다. 현재 미국에서는 유비쿼터스 컴퓨팅을 UbiComp로 사용한다. UbiComp는 최종단계인 최종사용자의 입장에서 최하단계(네트워크 인프라, 사용자가 신경 쓰지 않아도 될 부분)으로 구분할 수 있다. 구현 단계를 피라미드식으로 표현할 수 있다. 아직까지 유비쿼터스 컴퓨팅을 하나의 명확한 단어로 정의 하기에는 무리가 있기 때문에, 유비쿼터스 컴퓨팅이 포괄하는 다양한 기술분야: 인터페이스, 모바일 컴퓨팅, 임베디드, 그리드 프로젝트들의 의의 및 관점을 연구해보는 것이 필요하게 될 것이다. 각 연구프로젝트의 관점과 논점을 통해 새로이 보완된 연구프로젝트를 구현하여, 점차적으로 유비쿼터스 컴퓨팅을 통한 실현화 단계에 접근 할 수 있을 것으로 예상된다.


사용자 중심의 인터페이스 개선을 통한 친숙한 사물 환경. Multimodal, 엠비언트 인텔리전스.

최종사용자를 지원하는 가상 아바타를 통해 사용자가 자연스럽게 자신이 원하는 서비스를 요구할 수 있음.

운영체제: 설치시간이 길고, 모든 것을 초기화 상태에서 시작하여야 함. 문제 발생시 복구하기 힘들다. 새 장치를 추가할 때 드라이버를 별도 설치하여야 함.


모든 기술들의 표준, u운영체제 탑재: 쉽게 별도 장치를 장착하여 사용할 수 있으며, 부팅이 없고, 즉각적으로 반응한다. 사용자의 프로파일 및 선호도를 지원하여, 사용자가 요구하는 서비스를 항시 연결한다. 시스템의 최소 CPU를 이용하여 연산을 처리한다.
컴퓨터: 운영체제를 기반으로 사용자에게 필요한 프로그램 서비스를 제공. 독립적이고 폐쇄적인 성향으로 말 그대로 PC의 형태를 갖춤.
디바이스: 독립적이지 않고, 유선 네트워크에 의존하지 않는개방형 컴퓨팅. 다양한 자료고 공유 될 수 있으며, 친목을 위해 사용됨.
www: 정보를 공유하거나, 특정 정보를 얻기 위해 접속한다. 때로는 복잡한 전자상거래를 지원한다. 한때 Amazon.Com과 같은 닷컴 붐을 일으키기도 하였다.
Semantic Web: 기존의 www과는 달리 사용자가 선호도를 기준으로, 다양한 서비스 및 정보들이 미리 확보되어 사용자에게 통보하는 형태이다. 즉 사용자가 검색을 위한 시간을 투자하지 않고도, 즉각적으로 생활에 유용한 정보들을 수집할 수 있다.

가장 중요한 것은 시멘틱 웹 가상 정보 뿐만 아닌 생활 속의 사물들, 전자기기, 사무용품과 연결되어, 가상과 현실의 통합화 단계를 구현한다. 인간의 삶을 효율화되고 체계화된다.
네트워크: 인터넷 또는 금융 서비스를 위해 인터넷에연결됨. 또는 위성 실시간 방송을 위해 엑세스 그리드의 플랫폼으로 사용되기도 한다. 환경적 요소는 사용 가능한 선택 사항에 영향을 미친다. 예를 들어, 어떤 건물에서는 케이블을 설치하는데 제약이 있거나 기존의 케이블을 사용해야 할 수도 있다.또, 어떤 지역에서는 전파 차폐 또는 간섭 때문에 무선 네트워크 장치의 사용을 제한 받기도 한다.
센서네트워크: 인터넷과 네트워크 뿐만 아니라 다양한 사물 장치와도 항시 접속되며, 정보를 공유하게 됨. 즉 다양한 서비스를 요구하고, 거절 할 수 있음.

Diagram1. 유비쿼터스 컴퓨팅과 기존 컴퓨팅 환경과의 차이점

유비쿼터스 컴퓨팅은 기존 컴퓨팅 환경과는 달리 정보의 확장을 통해 다양한 서비스를 구현하게 된다. 유비쿼터스 컴퓨팅의 기술 개념적 철학은 Xerox PARC 연구소의 마크와이저에 의해 제시되었으며, 유비쿼터스 컴퓨팅 분야에 아직 알려지지 않은 "Open House" 연설에서 그가 지향하는 유비쿼터스 컴퓨팅의 철학의 의미가 포함된다. 그는 "생활속의 컴퓨팅(Calm Computing)"에 대한 논점을 펼친다.

B. 유비쿼터스 컴퓨팅의 기술 측면적 관점의 차이
대부분의 학자들은 MIT 미디어 랩에서 유비쿼터스 컴퓨팅 구현에 있어서 가장 근접한 연구를 한다고 판단하지만, MIT의 Open House에서 마크 와이저가 말한 논점은 이와 반대이다. MIT 미디어 랩의 교수인 Nicholas Negroponte는 700명의 청중들에게 지능형 에이전트들이 앞으로 인간이 필요로 하는 모든 요구 사항을 수행 할 수 있다고 주장하였고, 지능형 에이전트를 통해 사람들이 요구 사항을 충족할 것을 예견하였다. 그런 의미에서 3세대 컴퓨팅 패러다임의 전환에서 큰 역할을 하게 될 것은Calm Computing이 아닌 에이전트 기술이라 주장하였다. Calm Computing은 인간의 라이프스타일에 맞게 무의식적으로 생활 속의 사물을 통해 정보에 접하게 됨을 의미하는 반면에, 에이전트 기술은 말 그대로 대리인의 역할을 통해 소프트웨어 인간의 영역에 침범하여, 데이터를 수집 및 가공하게 된다. 유비쿼터스 컴퓨팅의 발전은 기술의 상호보완적인 측면에 의해 이끌어진다. 때문에, 마크와이저의 관점, 니콜라스의 관점은 참고사항이 될 수 있을 뿐 정확한 개념의 틀로서 사용하기엔 아직 무리가 있다.

C. 유비쿼터스 컴퓨팅 Many:Many 컴퓨팅
마크와이저는 제 3세대 컴퓨팅 패러다임이 인간의 라이프스타일을 기반으로 자연스럽게 융합화 되는 컴퓨팅 환경을 추구하였다. 컴퓨팅 세계의 첫 물결은1940년대부터 1980년대까지 이르렀으며, 이를 통해 대부분 사람들은 컴퓨터에 종속/지배되었다. ‘지배’라는 표현은 d여러 사람들이 하나의 컴퓨터(Many to One)를 사용하였다는 것을 의미한다. 마크와이저의 바라본 ‘지배’의 표현은 "섬김(serve)" 으로 전환 되야 한다고 주장하였다. 제 2의 물결에선 한대의 컴퓨터가 한 명의 사용자(One to One)에 의해 사용된 시기이다.

현재의 산업 환경에 바로  "The Second Wave"의해 정의 된다. 인간의 교감이 통하지 않는 상황에선 기계와 사람이 서로를 쳐다보고 있다는 것은 쉽지 않다. 구체적으로는 인간의 사진, 동영상 등 여러 데이터는 컴퓨터 측면에서는 의미 없는 데이터로 정의된다. 대등한 1:1 관계의 부등식이 성립되지 않고 인간이 컴퓨터에 의지해야 하는 환경이다. 제 3의 물결, 모든 컴퓨팅 환경의 기술 성숙도가 최종 단계에 이르렀을 때를 말한다. 한 사람을 위해 다양한 사이즈와 규모의 경제에 이르는 여러 컴퓨터들이 섬기게 된다. 마크와이저가 정의 하는 유비쿼터스 컴퓨팅 은 바로 3세대 컴퓨팅이다.


D. 유비쿼터스 컴퓨팅의 존재형태 및 양식
Open House의 마크와이저의 논점에 의하면 앞으로 20년 후면 컴퓨터들은 옷 상표(빨래의 옷감을 판별하여 세탁), 커피 컵(세척을 위해, 사람에게 알림), 전구(사람이 없으면 절전상태로 전환), 연필(모든 필기한 것을 디지털화 시킴)을 그들의 서식지로 만들게 된다는 전제하에, 유비쿼터스 컴퓨팅 환경에서는 사람이 상화작용(interact)하는 방식이 아닌 더불어 살아야(dwell)한다. 혼인관계에서도 상화작용하면 그 관계는 오래가지 않으나 더불어 살아야 하는 관계가 오래 지속될 수 있다. Co-Existing 관계가 형성되기 위해선, 컴퓨터의 영역과 인간의 영역이 확실해져야 한다. "SMART"라는 단어는 컴퓨터가 인간에게 강조해야 할 부분이 아니라는 것은 인간과 컴퓨터의 공생관계에서 해석될 수 있다.


Case 1: 인간이 스크린에 집중 할 때 주위 환경은 인식되지 않는다.
인간의 집중도가 스크린 속의 정보에 관심을 기울이게 되면, 주위환경의 돌아볼 수 없음.
Case2: UbiComp 환경에서는 사람이 주위에 관심을 둠과 동시에 컴퓨터를 사용할 수 있음.
주변환경을 인지함과 동시에, 자신이 사용하고자 하는 정보를 활용할 수 있음.

Diagram 4. 컴퓨터 사용에서의 집중도/UbiComp의 집중도

E. 유비쿼터스 컴퓨팅의 실용적 개념인 컨버전스
현 많은 다국적 기업들이 미래를 위한 투자를 회피하며, 현실적인 산출물을 위해 노력하는 이유는 미래를 예측할 수 없을 만큼 수많은 정보들과 기술들이 변하기 때문이다. 이러한 환경 속에서 유비쿼터스 컴퓨팅의 역할은 바쁜 사람들을 위해 대행 서비스 등 보안 알고리즘과 컨버전스(Convergence) 기술에 의거한 무선 광대역 서비스가 지원되어, 사람들이 다양한 단말기를 통해 항시 접속할 수 있어야 한다는 것이다. 여기서 말하는 항시접속(Seamless)란 스트리밍 방식과 틀리 연결성이 지속되는 유비쿼터스 컴퓨팅의 개념을 의미한다. 컨버전스 기술이 뜻하는 바는 단일 단말기에 다양한 기능을 제공하는 바를 의미한다. 즉 휴대폰에서 음악재생, 도영상 재생, 카메라 기능을 SoC(System on Chip)를 통해 지원되는 것을 하나의 예로들 수 있다. 하지만 유비쿼터스 컴퓨팅, 그 자체가 컨버전스를 의미하는 것이 아니다. 뜻하는 바는 다양한단말기 또는 가전제품들이 각자의 표준에 구애 받지 않고 별도의 설정 없이 쉽게 연결되어, 사용자가 이용하고자 하는 서비스를 지원할 수 있음을 말한다. 결국 유비쿼터스 컴퓨팅 컨버전스의 실현 단계는 표준화된 플랫폼 또는 네트워크에서 다양한 기기들이 연결되어야 한다. IP Version6 등 IP 고갈을 대비하여, 다양한 주소체계 등이 제시되고 있는 상황이다.



II. 유비쿼터스 컴퓨팅의 인터페이스적 측면: 멀티모달, 엠비언트 인텔리전스
유비쿼터스 컴퓨팅 환경에서의 인터페이스는 다양한 환경 또는 상황에서 사용자와 컴퓨터(다양한 종류의 컴퓨팅 디바이스)가 쉽게 상호작용 할 수 있도록 사용자의 행동론(Behavior) 또는 패턴, 인지 심리학적 요소를 기반으로 한다. 유비쿼터스 컴퓨팅에서 필요로 하는 인터페이스 기술 분야는 엠비언트 인텔리전스와 멀티모달 인터페이스이다. 이는 유비쿼터스 컴퓨팅의 사용자적 측면을 고려하여, 실용화를 이끌 수 있을 것으로 예상된다.

A. 엠비언트 인텔리전스 (Ambient Intelligence)
엠비언트 인텔리전스는 유럽에서 AmI로 표기된다. 엠비언트 인텔리전스는 유럽의 정보 기술 사회 학회(ISTAG)에 의해 처음 제시되었으며, AmI는 차세대 유비쿼터스 컴퓨팅 단말기에 고효율화된 지능 인터페이스를 제공하는 것을 목표로 한다. 또한 인간과 디바이스 또는 사물 매체간의 상호작용을 높이게 된다. 기존 컴퓨팅은 키보드와 마우스를 통해 인간과 상호작용 하였지만, AmI는 컴퓨팅이 존재하는 공간의 효율성을 증가시키기 위해, 공간의 형태, 움직임, 향기, 음성 인식 또는 출력 등을 사용하게 된다. 다양한 정보 매체를 통해 새롭고, 사용성에 익숙한 인터페이스를 제공함에 의의를 지닌다. AmI에서의 가장 핵심적 요소는 무선 센서 디바이스들과 통신하기 위한 무선 통신/네트워크 기술 기반의 인터페이스이다.

1. 엠비언트 인텔리전트 구현을 위한 필요 구성요소
● 인터페이스: AmI에서의 유비쿼터스 컴퓨팅은 사용자 친화적 인터페이스를 제공하는 동시에, 사용자가 학습 능력 또는 노력에 의해 습득되는 지식을 좀 더 간소화 시킬 수 있는 컴퓨터 단말 기술의 인터페이스/환경 인터페이스에 대한 연구가 필요하다.
● 통신/네트워크: 유비쿼터스 컴퓨팅의 자율적인 네트워크 환경 구현을 위해서는 별도의 추가 장비 또는 고용인력 없이 형성되는 네트워크가 필요하다. 모바일 ad hoc 네트워크(MANETs)은 네트워크의 단계를 한 차원 업그레이드 할 수 있는 기술 중 하나이다. 이는 무선 통신 기술로서, 모바일 노드 안에 라우터가 포함되기 때문에 기존의 네트워크 구성 보다는 좀 더 유연성이 있다고 말할 수 있다. 모바일 ad hoc 네트워크는 무선메쉬 네트워크 기술은 소출력(minimum output) 통신을 통해 방대한 서비스 커버리지 확보가 가능하며, 유연성 있는 장비의 설치 및 재배치를 통한 네트워크 노드 당 경제성이 높은 기술이다. 다른 이동 호스트로의 연결을 제공하기 위한 고정된 제어장치를 갖지 않으며, 각 이동 호스트가 라우터로 동작하여 이동 호스트로부터의 패킷을 다른 이동 호스트로 relay 하는 방법으로, 여러 재해가 일어나면 중앙 정보 통신 시스템으로 공중망을 이용한 통신 서비스가 아닌 기관 구성원들과 장비간의 통신을 통해 재해 상태나 구성원들의 안전을 진단 할 수 있어, 재해를 신속히 대처 할 수 있도록 해준다. 그런 의미에서 유비쿼터스 컴퓨팅에서의 변화하는 컴퓨팅 환경에서 무선네트워크를 자동설정 하게 된다.

이미지인식
안구인식, 3D로 표현되는 무션인식, 위치
음성인식
음성, 멜로디, 고-저 주파음
후각인식
공기 이질성에 대한 감지
촉각인식
지문인식, 열 감지 센서 등
기타 인식 매체 기술
뇌파인식 등.
어뎁티브 인터페이스(Adaptive Interface): 사용자의 선호도 또는 유형에 맞게 적응하는 인터페이스인 어뎁티브 인터페이스는 AmI의 3번째 요소기술이다. 이는 사용자 사회 지능 인터페이스(ISUIs)라고도 불리며, 정보의 증가로 사용자에게 정보를 어필할 수 있는 능력을 인터페이스가 각 디바이스에 부여하게 된다. 또한 정보의 보안을 ISUIs를 통해 제공받을 수 있게 된다. 인터페이스뿐만 아니라, 사용자가 단말장치와 상화작용하기 위한 절차로, 안구인식, 음성 인식을 하게 되기 때문이다. 어뎁티브 인터페이스는 다음과 같은 5개의 지각 요소기술을 갖게 된다.
Diagram 6.  지각 요소기술의 5가지

AmI에서의 ISUIs의 역할은 단말기에 보안 기능과 더불어 사용자가 정보를 용이하게 사용할 수 있는 정보매체를 간소화시키는 역할을 하게 되며, 이는 유비쿼터스 컴퓨팅 사회에서 사용자가 특정 단말 장치를 사용하기 위한 인증 절차의 방법론을 제공하게 된다.

2. 엠비언트 인텔리전스의 필요성과 당위성
유비쿼터스 컴퓨팅은 기술을 중심으로 발전하였기 때문에 사용자와 컴퓨터와의 인터페이스에 대한 심도 있는 연구보다는, 기술적인 측면을 고려하게 되었다. 또한 유비쿼터스 컴퓨팅이 의미하는 공간적 부문 연구도 미흡하기 때문에, 엠비언트 인텔리전스가 지니는 의미는 매우 크다. PriceWaterhouse Cooper's(PwC)에서는 가장 핵심이 될 3대 기술은 AmI라고 발표 한 사례가 있다. AmI는 지능화된 환경을 통해 사용자에게 다음과 같은 속성들을 부여하게 된다.


민감한 (Sensitive)
감도 좋은 센서 장치
개인화된(Personalized)
개인화된 서비스 환경
적응하는(Adaptive)
사용자에 적합한 인터페이스 환경 제공
참여하는 (Anticipatory)
기대에 기인하는 서비스 환경
반응하는 (Responsive)
특정 이벤트/행동론에 의해 반응하는 디바이스

Diagram6. AmI의 지능 인터페이스 속성

앞으로 유비쿼터스 컴퓨팅 패러다임에 있어 소비자들은 시간/비용절약과 더불어, 보안문제를 대처하여AmI인터페이스를 거주 환경에 요구하게 될 것으로 예견된다. 현 사용자가 컴퓨터를 통해 금융거래 활동을 통해 하는데 있어서 AmI는 특정 단말기에 여러 요소들을 첨부하여 소비자가 안전하게 거래 활동을 할 수 있도록 도와주게 된다. 위의 기술 요소들은 주로 홈 네트워크 환경을 구현하는데 활용되며, 이를 기반으로 인터페이스를 제공하게 된다. 기업 활동에 있어서 AmI를 기반으로 하는 다양한 매체 환경을 제공하여 업무의 단순성을 높일 수가 있으며, 특정 디바이스에 대한 학습능력을 돕는 환경을 구현할 수 있을 것으로 예상되기에 매출을 증대시킬 수 있다.

3. 엠비언트 인텔리전스의 한계성
AmI의 한계점은 AmI 기반 홈네트워크 환경을 보편화와 더불어 비용, 진입장벽의 문제점이 있다는 것이다. 또한 기업 내부에서 AmI를 사용하게 된다면, 윤리적인 문제와 다른 복잡한 시스템과 연동되는 과정에 있어서의 비호환성에 대한 문제를 제기 할 수 있다. 미국의 NIST에서는 SmartFlow 프로젝트를 통해 디바이스간 다중 연결과 호환성을 해결하는 연구를 하고 있다. 이 프로젝트에서는 새로운 인터페이스 표준을 만들어 사용자가 언제 어디서나 상호작용 할 수 있도록 한다.

● 엠비언트 인텔리전스의 기술 구현 사례: NIST의 지능형 데이터 flow 시스템
지능형 공간에서는 다양한 센서를 사용하여 정보를 취합하게 된다. 그리고 이러한 정보를 인식 알고리즘을 통해 분석한 뒤 해당 정보가 필요로 하는 노드(네트워크에 연결되는 여러 노드)에 전송하게 된다. 아래 Smart Data Flow System에서 리눅스 운영 체제를 기반으로 데이터 전송의 인터페이스 API를 제공하는 다이어그램이다. 이는 각 사용자가 서버에 연결되어 데이터를 전송하는 과정을 보여준다.


Diagram7. NIST의 지능형 데이터 flow 시스템

B. Multimodal 인터페이스
유비쿼터스 컴퓨팅 환경에서 사용자 인터페이스에 대한 연구는 사용자의 접근 방법 또는 행동론에 의거하여 개발된다. 대표적인 <예>로는 휴대폰의 키 배열의 입력 방법부터 시작하여 타블렛 컴퓨터 등 앞으로 유비쿼터스 컴퓨팅 환경에서 정보를 접하기 위해서는 다양한 인터페이스가 요구 될 것으로 기대된다. 멀티모달 인터페이스(Multimodal interface)는 인간과 컴퓨터의 상호작용을 위해 음성, 키보드, 펜과 같은 입력 장치를 이용하는 방법을 뜻한다. 일반적으로 컴퓨터에 입력을 위해서는 음성인식, 펜, 텍스트 및 키보드 타이핑을 사용하고 컴퓨터의 결과를 출력하기 위해서는 음성, 오디오, 비디오가 사용된다. 인간과 인간 사이의 통신은 음성과 제스처를 이용하지만 기계에서는 전통적으로 키보드를 사용해왔다. 최근 음성처리 기술이 발전하고 단말기의 성능이 개선되어 초소형 단말기가 출현하게 되자 음성과 펜을 이용하는 멀티모달 인터페이스가 필요하게 되었다.

1. 멀티모달 인터페이스의 구성도
멀티모달 인터페이스는 음성 입, 출력을 처리하는 음성 인터페이스와 펜 필기체를 인식하는 잉크 인터페이스 및 전통적으로 사용해 온 키보드 인터페이스로 나뉜다.

● 음성 인터페이스는 음성으로 기계의 명령하는 음성입력 기능과 기계의 출력을 음성으로 들려주게 하는 음성출력 기능으로 나눌 수 있다. 음성입력 기능은 음성인식 기술에 의해 실현되며 음성출력 기능은 음성합성 기술에 의해 구현되므로 음성 인터페이스 기술이란 음성 인식, 음성합성 기술이라고 할 수 있다.
● 잉크 인터페이스는 펜으로 글을 쓰거나, 그림으로 표시한 것, 혹은 수식을 사용하여 인터페이스 하는 방식이다. 사람과 기계의 통신 수단은 아직까지 키보드, 혹은 버튼이 가장 많이 사용되고 있다. 최근에는 단말기가 소형화, 그리고 지능화되어 사용자가 보다 편리하고 쉽게 사용할 수 있는 입력 방법에 대한 연구가 진행됨에 따라 멀티모달 인터페이스에 대한 관심이 높아지고 있는 것을 볼 수 있다.

최근 음성인식, 음성합성 및 필기체 인식 기술이 발전하고 이러한 멀티모달 기술을 활용하는 서비스가 요구됨에 따라 W3C(World Wide Web Consortium)에서는 멀티모달 인터랙션 워킹 그룹I (Multimodal Interaction Working Group)을 만들어 표준화 활동을 지원하고 있다. 본 그룹에서는 멀티모달 인터페이스를 이용하여 인터넷상의 WWW(World Wide Web)기반 서비스를 개발할 때 필요한 표준안을 개발하고 있다. 현재 논의되고 있는 표준안은 멀티모달 인터랙션 프레임워크(Multimodal Interaction Framework), EMMA(Extensible Multimodal Annotation) 및 잉크 마크업언어(Ink Markup Language)로 나누어집니다. 아래는 표준안의 분류이다.

2. 멀티모달 인터페이스 표준안
a. 멀티모달 인터랙션 프레임워크(Multimodal Interaction Framework)
멀티모달 인터랙션 프레임워크 표준분야의 목적은 멀티모달 인터페이스를 이용한 응용서비스가 어떻게 이루어지고 있는가에 대한 요소를 연구하는 것이다. 현재 멀티모달 인터페이스를 이용한 응용시스템이 되기 위해 필요로 하는 요소 는 입력 요소, 출력 요소, 인터액션 관리기(interaction manager), 세션(session) 요소, 시스템 환경 요소 및 응용 서비스 실행 요소로 나누어진다. 아래는 W3C에 의해 제안된 멀티모달 인터랙션 프레임워크의 개념도이다.

Diagram 8. Multimodal Interaction Framework

● Input Element: 입력 요소는 음성, 필기체, 키보드 등을 인지하여 해석하기에 편한 형태를 구성하는 인식 모듈과 그것을 의미적으로 해석하는 해석모듈 및 여러 종류의 입력을 통합시켜서 인터랙션 관리기로 전송하는 통합 모듈로 구성된다. 예를 들면, 음성이 입력이 되면 인식 모듈에서는 음향, 언어 및 문법 정보를 이용하여 인식 모듈에서 텍스트로 변하게 됩니다. 또한 필기체로 입력이 되면 필기체 모형, 언어 및 문법 정보를 이용하여 텍스트로 변환 시키게 된다. 그리고 포인팅 디바이스가 입력이 되면 버튼을 누르는 순간의 x-y 좌표를 읽어서 텍스트로 변환시킨다. 해석 모듈에서는 인식된 결과를 의미적으로 해석해서 동일한 대표 텍스트로 변환시킨다. 해석 모듈의 결과는 EMMA로 변환되어 통합 모듈로 입력된다. 통합 모듈에서는 음성, 포인팅 디바이스 등의 정보를 통합시켜 상호작용(Interaction) 관리기로 전달한다. 예를 들면 입술 움직임과 음성을 하나로 표현할 수 있고 각각 다르게 해석할 수 있다. 또한 포인팅 디바이스로 가리키면서 음성으로 "여기에 저장해" 라고 한다면 여기란 곳은 포인팅 디바이스의 좌표축이 가리키는 곳이므로 입력 요소에서는 독립적으로 해석되고 통합된 후 상호작용(interaction) 관리기에서 합쳐서 해석될 수 있다. 한편, GPS 등과 같은 독립적인 시스템 출력은 통합 모듈을 거쳐 EMMA 형태로 상호작용(interaction) 관리기로 직접 전달된다.
● Output Element: 출력요소는 생성 모듈, 스타일(styling) 모듈 및 렌더링(rendering) 모듈로 나누어진다. 생성 모듈에서는 인터랙션 관리기로부터 사용자에게 전달할 정보가 입력이 되면 어떤 모드로 출력할 것인지를 결정하게 된다. 즉 음성, 그래픽 등을 결정한다. 이때 출력 모드가 하나로 결정이 되고 만약에 주 모드로 출력이 불가능한 경우에는 보충 모드가 출력으로 결정된다. 이러한 정보를 표현하기 위해서 내부 언어가 사용이 되며, 그 언어의 정의에 대해서는 아직 연구 중에 있다. 스타일 모듈에서는 정보를 어떻게 표현될 지에 대한 정보를 추가하는 역할을 한다. 예를 들면 그래픽이 화면에 어떻게 위치할 지에 대한 정보나 혹은 음성이 출력이 될 때 단어 사이의 간격 등에 대한 정보도 추가된다. 음성 출력을 제어하기 위해서 CSS(Cascading Style Sheets)가 사용이 되며, 출력은 SSML(Speech Synthesis Markup Language)로 표현된다. 또한 그래픽을 위해서는 XHTML(Extensible Hyper Text Markup Language)이 사용된다. 렌더링 모듈에서는 스타일 모듈에서 생성된 정보를 이용하여 실제로 출력하는 역할을 한다. 즉 음성이 출력 되거나 화면에 사각형 등과 같은 그림이 이 모듈에서 그려진다. SSML은 차기 회의에서 Recommendation 세부사항을 결정하도록 일이 진행되고 있다. 인터랙션 관리기에서는 입력 요소로부터 얻은 정보를 이용하여 실제 응용 서비스 실행을 수행한 후 그 결과를 출력 요소에 제공하는 역할을 한다. 세션 요소에서는 다양한 단말기가 사용되더라도 세션이 끊어지지 않도록 멀티모달 응용서비스와의 지속적인 연결 및 다양한 단말기 출력을 위한 싱크(Sync) 기능이다.

C. 유비쿼터스 컴퓨팅 인터페이스 생성 방법론
유비쿼터스 컴퓨팅을 위한 응용 프로그램을 생성하는 툴킷인 SUPPLE은 시스템 디자이너가 인터페이스 와 이를 필요로 하는 하드웨어 디바이스를 선정하게 되면 자동적으로 이에 맞는 환경을 구현하게 된다. SUPPLE은 의사결정에 의거한 최적화를 이론적으로(Decision-Theoretic optimization)실행한다. SUPPLE의 주요핵심 기술은 Split Interfaces, Customization Facility이다.

● Split Interfaces: 사용자가 새로운 환경에서 어리둥절하지 않도록 인터페이스에서 제공하는 일반적인 특징들을 신속히 제공한다.
● Customization Facility: 시스템 디자이너와 최종 사용자의 의사결정이 SUPPLE의 표현방법을 앞 설 수 있도록 한다.

모바일과 유비쿼터스 컴퓨팅의 발전은 디지털화 된 정보와 사용자의 접근성에 의한 의존성이 증가하고 있다. 사용자는 다양한 상황에서 디지털 컨텐츠를 생성하거나, 또는 접근하고자 한다. 사용자들은 디지털 정보들을 접근하기 위해 개인용 컴퓨터가 아닌 범용 디바이스들을 사용하게 된다. 범용 다바이스는, 휴대용 전화, PDA, 타블랫, 터치패널, 또는 레이저 포인팅 디바이스이다. 이는 디지털 정보를 접하기 위한 수단으로 사용된다. 다양한 디스플레이 인터페이스는 사이즈와 해상도에서 차이가 있으며, 다양한 입력 기기, 상호작용을 위한 사용자 모드가 다양하다고 말 할 수 있다. 현재 유비쿼터스 컴퓨팅 환경의 인터페이스에서 요구되는 사항은 다양한 플랫폼을 지원하는 에플리케이션이 필요로 하다. 다음은 유비쿼터스 컴퓨팅 분야에서 요구되는 사항에 대한 정리 목록이다.


다양한 인터페이스 지원
새롭고 다양한 기기들이 급속한 속도로 시장 진입을 하고 있음.
성공적 프로토타입 개발
유비쿼터스 컴퓨팅은 초기 분야이기에, 성공적인 인터페이스 개발 사례는 미흡, 이를 위한 끊임없는 프로토타입 개발이 필요한 상황.
사용자 중심형 기능 추가
통합된 서비스와 기기들의 상호작용을 통해 새로운 기능들이 요구됨.

Diagram 9. 유비쿼터스 컴퓨팅 분야에서 요구되는 사항

하드웨어 플랫폼에서 쉽게 사용자 맞춤형 인터페이스를 생성하는 SUPPLE이 개발됨에 따라유비쿼터스 컴퓨팅의 인터페이스의 속성인 Easy, Capable, Adaptive, Portable, Extensible 에 대한 연구를 가능하게 하였다.


III. 유비쿼터스 컴퓨팅의 상용 프레임워크: IBM의 On-Demand 프레임워크 응용

A. On-Demand 환경을 위한 솔루션 제공전략
IBM On-Demand 비즈니스 솔루션은 인간 통합(People Integration), 프로세스 통합(Process Integration), 정보 통합(Information Integration)으로 3 영역을 명한다. 이는 실질적인 수요 또는 고객의 요청에 따른 제품 개발 및 전달을 위해 On-Demand 솔루션을 3 도메인에 제공한다. 유비쿼터스 컴퓨팅의 개념은 On-Demand 비즈니스 전략을 한 층 더 치밀하게 만들 수 있다.


유비쿼터스 컴퓨팅을 기반으로 한 On-Demand의 전략 (IBM사의 전략 수정)


자율화된 컴퓨팅 환경
(Autonomous Computing)

노동인력과 비용을 절감하며, 정보통신 또는 유비쿼터스 컴퓨팅을 기반으로 즉흥적으로 빠르게 업무 수행을 처리 할 수 있음. 여기에는 RFID, Zigbee 등 다양한 센서 칩이 들어가 상황정보를 수집하여, 프로세스를 간소화시키며, 데이터마이닝을 통해 최단경로 등 유용한 데이터를 산출할 수 있음.
상황 정보 통합화
(Contextual Information Integration)

각종 IT 프로세스 및 연결되지 않은 업무 프로세스의 구체적인 정보들을 Context화 시켜 Semantic Web을 기반으로 체계화 시킴

가상현실화
(Virtual-Realization)

자본 및 자원의 최대 활용을 위해 온라인 및 현 비즈니스에서의 업무 프로세스를 체계화 시킴. 2D 코드를 통해 현실과 가상의 연결고리 제공.

Diagram 10. 정보화 환경에서 유비쿼터스 컴퓨팅 환경의 흐름 속의 비즈니스 변화

유비쿼터스 컴퓨팅을 기반으로 한 위 전략과 기존 On-Demand 비즈니스 전략과 차이점 비교 분석은 다음과 같다. 자동화는 기존 업무 프로세스 및 단계를 축소화시키면서 인력의 최소 투여를 통해 프로세스를 구현하지만, 자율화는 사람의 개입이 필요 없이 인공지능 적으로 지시자의 선호도, 또는 프로파일을 근거로 자율적으로 컴퓨팅 시스템이 개입하여 프로세스를 작동한다. 통합화는 기존 업무프로세스들이 연결되지 않았기 때문에, 업무 조율 및 관리를 위해 연결성을 유지하는 의미에서의 통합화를 이루었지만, 해당 업무의 특성 및 구체화된 정보가 공유되지 않기 때문에 이를 상황 정보로 표현하여 시멘틱화 시키는 노력이 필요하다. 마지막으로 자산운용과 자본의 투입 현황을 파악하기 위해 모든 거래내역들을 전자화시키게 되었지만, 막상 이러한 정보들이 데이터로 누적되는 경우가 있기 때문에 현실에 존재하는 페이퍼와의 연결고리를 다양한 전자기술을 통해 전자화시켜 연결성을 유지한다.

IV. 유비쿼터스 컴퓨팅 해외 프로젝트 사례 분석 및 평가

A. HIVE: 분산 에이전트 시스템 기반 오브젝트 네트워크 사례 [1]
에이전트 플랫폼으로서, 분산형 시스템으로서 로컬 자원들을 서로 네트워크화한다. 자바 기반의 시스템으로서 실용성을 추구 하며, Hive를 통해 에이전트간 통신이 가능하게 한다. 에이전트들이 네트워크화 하기 위해서는 기본적인 플랫폼이 필요하게 되는데 이를 "Things That Think" 프로젝트에 적용을 시키게 된다. 즉 에이전트 플랫폼을 이용한 에플리케이션 개발이다. 에플리케이션 인프라를 통해 네트워크화 되어지는 기기들의 유연성을 부여하게 된다. 단순한 네트워크화 되어지는 기기들의 개념이 아닌 임베디드 유비쿼터스 네트워킹을 에이전트 생태계를 제시하여 구축하게 된다. MIT 미디어 랩의 프로젝트인 "Things That Think"에서는 기존에 존재하고 있는 여러 사물들에 지능형 칩(embedded)을 부착하여 인지 작용을 할 수 있도록 개발하였다. 하지만, TTT에 있어서 범유비쿼터스적인 통신 방법을 제안해야 할 필요성이 있다. 그래서 Hive를 적용시켜 사물들의 네트워크화가 활발하게 이루어 질 수 있도록 한다. Hive가 갖게 되는 궁극적인 목적은 네트워크에 속하는 여러 사물(object:things)들을 활성화시켜 생명력을 부여하는 것이다.

1. HIVE의 에이전트 속성
● 에이전트는 자율적이다: 시스템 안에 전송되어지게 되면, 그들의 임무를 수행하게 된다.
● 에이전트는 순향적이다: 컴퓨터의 모든 활동을 캡슐화 시킨다.
● 에이전트는 의미를 지니게 된다: 에이전트를 온톨리지화하여, 이가 지니게 되는 능력에 대한 정의가 주어지고, 더 나아가서는 능력에 맞게 수행 할 수 있는 서비스를 찾게 된다.  
● 에이전트는 상호작용 한다: 한 작업을 완성하기 위해 서로 협력한다.
● 에이전트는 이동성이 있다: 복잡하고, 변형하는 분산 시스템 하에서 쉽게 표현 될 수 있다.

2. Hive는 3가지 구성 요소: Cells, Shadows, Agents
Hive 그 자체는 분산되어진 Cell 들의 집합을 의미한다. Hive Cell은 웹 서버 개념과 유사하다. 특정한 IP 주소를 부여받은 컴퓨터 시스템에서 구동되어지는 프로그램으로서 존재할 수도 있다. 각 Cell들은 그들의 자원을 갖게 되는데 이를 shadow라는 개념으로 표현하게 된다. 자원들을 현실상에 있는 사물들로 표현하자면, 컴퓨터에 부착되어 있는 웹캠, 모니터 등을 말한다. 하드웨어에 대한 메소드를 갖게 되는데 takepicture(), setBrightness() 과 같은 메소드로 하드웨어를 작동시킨다. 한 기기에 대한 모든 코드를 통합화시켜 한 장소에 저장하게 되면, encapsulation이 가능하게 된다. 각 Cell 들은 에이전트들을 호스트하게 되고, 로컬 자원들을 사용하게 한다. 전통적인 컴퓨터 운영체제 Hive 시스템을 표현하자면, Cell은 커널과 같고, shadow는 기기들의 드라이버, 그리고 에이전트는 프로세스와 같다. Hive 시스템은 자바 라이브러리로 구성되어지며, 대략 280개의 클래스와 24000 줄의 코드로 이루어진다. 그리고 30개의 기기들에 대한 특정한 코드와 60개의 에이전트에 대한 코드화가 되어 있다. RMI (Remote Method Invocation)을 통해 에이전트 통신과 이동성을 공급하게 된다. 올톨로지 기술로는 SiRPAC RDF 라이브러리를 사용한다.

3. Hive 프로젝트의 추후연구방향 및 공헌도
추후 에이전트 기반 기술을 적용 시킨 여러 시스템 인프라. 에이전트를 기존 시스템 인프라에 적용 시켜 사례 연구를 하게 될 것이다.Hive라는 프레임워크 하에서 에이전트가 각 하드웨어 구성에 대한 역할을 맡게 된다. 그러므로 에플리케이션 개발을 할 때에 여러 에이전트가 서로 상호작용하여, 각 에이전트에게 필요한 기능을 제공하게 된다. Syntactic 온톨로지와 Semantic 온톨로지를 사용하여, 에이전트가 요청하는 조건에 대한 정의가 가능하다. 그리고 더 나아가서는 자원을 관리를 위해 RDF를 사용하였다. Hive를 여러 시스템에 적용시켜 에이전트 기반 기술이 왜 필요한지를 논문을 통해 제시하였다. 추후에는 많은 에이전트들이 글로벌 네트워크에서 그들의 임무를 수행하게 될 것이다. Syntactic 온톨로지에 대한 에이전트 연구가 필요하다. 기존의 에이전트 틀 안에 새로 입장하게 되는 에이전트가 Hive 안에서 명령어를 찾지 못할 경우가 발생하기 때문이다.

Diagram 11. Hive Architecture: Cell은 웹 서버와 같으며, Shadow는 시스템 자원들, 그리고 에이전트들은 프로세스로서 Hive 시스템에서 상호작용하는 프로그램들이다.

B. 미디어 매트릭스: 분산 데이터베이스 기반의 자체 분류 시스템[2]
임베디드 컴퓨팅 기술을 기반으로 하여 사물의 데이터베이스에 접근 하여 원하는 정보를 추출할 수 있으며, 더 나아가서는 사용자가 원하는 형태의 데이터 분류를 할 수 있다. 이는 집 안에 있는 정리되어 있지 않은 비디오 테이프, CD 그리고 캠코더 카세트 등을 분류 하여 사용자가 손쉽게 찾을 수 있도록 한다. 물류 관리에 있어서 대형 사이즈의 물건은 분류하고, 관리하기 쉽지만, 일반적으로 소형의 물건은 값이나, 사이즈에 있어서 관리하기가 매우 어렵다. 전자 태그를 소형 물건에 부착한다면, 비용이 막대할 것이다. 그리고 사용자가 분류체계가 잡혀있는 시스템을 사용하기 위해서는 해당 지식이 필요로 하게 되는데, 이를 대비하여 사용자가 손쉽게 사용할 수 있는 분류 방법을 도입한다. 시스템에 사용 기법이 내장되어 사용자가 인터페이스를 사용하게 될 때에 도움을 줄 수 있어야 한다.

1. 미디어 매트릭스의 구성 기술
마이크로프로세서를 내장하고 있는 태그를 DV 테이프에다 부착시켜 수납장에서 테이프의 내용 그리고 메타 데이터를 인식할 수 가 있다. 그리고 소형 LED가 포함되어 상태를 표시하게 된다. IrDA 를 사용하여, 쿼리를 받게 되면 빛을 내게 되고, 이를 통해 리시버 역할도 하게 된다. Conductive Strip을 사용해 전력을 공급받게 된다. 해당 테이프에 정보를 입력하기 위해서는 개인용 컴퓨터 또는 PDA에 내장되어 있는 적외선 포트를 사용하여, 정보를 전송 할 수도 있다.

데이터 베이스 시스템의 실용성을 위한 법칙
● 시스템을 사용하기 위한 정보가 어떠한 형식으로 수집되어 있고 활용할 수 있는가
● 인프라 구조 가격과 업데이트 방법
● 정보의 접근성

2. 미디어 매트릭스 프로젝트의 공헌도 및 시사점
기존의 분류 체계를 갖춘 시스템과 달리, 분류 기법을 사용하여 물건을 일일이 분류 할 필요 없이, 사물들에 의해서 분류 체계가 잡혀진다. 그리고 사용자는 이를 통해서 정확한 정보를 습득할 수 있게 되고, 쉽게 물건을 찾을 수도 있게 된다. 사물을 통해 시스템이 구축 되어진다는 것이다. 앞으로 칩셋의 단가가 하락할 것으로 보인다. 그러므로 이를 활용하여, 확장된 시스템을 구축 할 수 있을 것으로 예상된다. 프로젝트는 단순 분류 방법을 제시하였지만, 앞으로는 공급 사슬 관리에 있어서, 더욱 더 체계적인 구분 방법에 효과적인 역할을 할 수 있을 것으로 기대된다. 이는 추후에 개발되는 임베디드 시스템의 개념도를 제시함과 동시에 사물에 의해 환경이 구축되어지고, 이러한 틀 안에서 여러 사물들이 상호작용 할 수 있다는 개념을 제시하였다.



그림1. DV 카세트를 위한 수납장
자동으로 분류하게 된다. 파란색의 스티커 비슷한 것은 태그이고 분류를 위해 작동하게 된다. 테이프에 대한 정보를 내장하고 있어서, 사용자가 언제든지 정보를 추출하여, 검색 할 수 있게 한다.



C. PhotoWhere: GPS와 웹데이터 기반의 디지털 사진[3]
GPS와 Web Data간의 정확한 화상정보를 만들어 낼 수 있는 기술을 개발하였고 이는 지역적인 구분이 없고 다양한 분야에서 정보를 제공하게 된다. Web과 GPS의 연동이 잘 되지 않기 때문에 한정적인 정보만을 얻을 수 있었지만, 본 프로젝트를 통해 성공적인 연동과정을 구현하였다.

1. PhotoWhere의 기반 기술
● GPS Receiver: 소켓 통신으로 형성된 장치
● Camera-enabled Phone : NOKIA 3650, Visual c++ application 뿐만 아니라 Bluetooth와 www를 이용하여 정보를 송수신이 가능함.
● Picture Annotation(사진에 대한 첨부 설명)
● Filter. Scorer, index

2. PhotoWhere 프로젝트의 유비쿼터스적 의의
Web으로부터 GPS에 전달되는 정보에 대한 양과 질의 증가(우선적으로 음성정보라도 가능하게 한 후, 그 정보를 이용해서 이미지화 시킬 수 있도록 한다.) 위치에 대한 유연성과 정확성을 산출하는 시스템 개발에 기여하였다. GPS와 Web Data 간의 정확한 화상정보를 만들어 낼 수 있는 기술 개발과 지역정보에 제한이 없고 다양한 분야에서 정보를 제공 받을 수 있는 시스템이다. 하드웨어와 소프트웨어간의 인터페이스에 유연성을 갖게 하여 확장성과 보편성의 원리를 적용시키면 특정화 된 영역에서 뿐만 아니라 일반적인 영역에서도 쉽게 적용할 수 있을 것으로 기대된다.


그림2. 다양한 정보로부터 정확한 주석을 추론할 수 있음.


D. Ripley: 어원 의미 개념화에 대한 해결책[4]
기계가 인간의 언어의 의미론을 이해하기에는 인간의 언어에 대한 기초적인 틀을 만드는 것이 매우 중요하다. 그러므로 로봇의 설계에 있어서 이러한 부분을 고려하여, 단어에 대한 인지, 순차적 접근, 그리고 도움 표현이 가능하다. 인간의 언어를 보게 되면 특정한 단어에 대한 유추가 가능하고 더 나아가서는 이와 연관하는 사물을 연상하게 된다. 이러한 순차적 접근을 통해 기계가 이러한 인식론을 이해 할 수 있도록 한다. 그러므로 단어 하나하나에 대한 개념이 성립되어야만 한다. Working 페이퍼에서 사용되는 로봇의 이름은 리플리(Ripley)다. 인간의 언어에 있어서 특정한 단어 표현을 기계가 이해 할 수 있고 이에 대한 추상화가 가능하여야 한다. 단어와 연관 지어 특정한 행위 또는 사물을 지각 할 수 있어야 한다. 단어의 발성에   따라 기계가 상황을 인지하게 된다.

1. Ripley의 구성기술
로봇은 탁자 위에 있는 사물들을 움직일 수 있으며, 대화 상대와의 눈을 맞출 수가 있다. 그리고 질문에 응할 수 있기에 이에 따른 행동을 묘사한다.

● 기계학적 구조와 작동법 (Mechanical Structure and Actuation): Gripper (집게)에 카메라가 부착되어 대화 상대와 눈을 맞출 수 가 있다. 몸체로 구성된 로봇이기에 7가지 부위(DOF: Degree of Freedom)로 설계하였다. 어깨, 팔, 손목/목, 집게/입으로 구성되어 있다. 각 부위에 torsion 스프링이 장착되어 있다. 그리고 각 부위의 힘의 강도를 측정하기 위해 컴프레션 센서가 부착되었다.
● 동작 제어장치 (Motion Control): 각 DOF의 모터 증폭기에 의해 전해지는 힘의 강도에 의해 마이크로 컨트롤러는 PD (위치 유도)에 의해 5 만초의 제어 루프를 돌리게 된다. 즉 중력 canceling 모터를 사용하여 이의 강도와 중력을 측정하여 동작하게 된다. Motion Trajectory를 기록하여, 로봇은 더 유연한 모션을 구사할 수 있다.
● 센서 시스템과 시각적 처리 방법 (Sensory System and Visual Processing): 2색 칼라 비디오 카메라와, 3축 속도계 (중력을 측정하기 위해), 머리 부분에 2개의 마이크가 달려있다. 위치 센서를 사용하여 여러 층의 모션을 구사할 수 있다. Gausian 모델 기법이 적용되어 바탕과 배경 색상을 구분 할 수 있다. 3D 사물은 히스토그램과, 지리학적 기법으로 표현 한다. 왼쪽이라는 단어를 인지하기 위해 두 사물의 거리와 위치를 측정하게 된다.
● 시각을 사용한 접근 (Visually-Guided Reaching): Motion trajectory 라이브러리를 사용하여, 학습된 동작으로 사물에 접근 할 수가 있다. 임의적인 움직임을 구사하기 위해서는 선형 상각궤도 수치를 계산하게 된다.
● 사물의 무게와 순응 (Object Weight and Compliance): 사물의 무게를 측정하여, "Heavy"라는 단어의 의미를 인지하게된다. 각 DOF의모터증폭기를 사용하여 사물의 무게를 측정하게 되고 이에 따라 무게의 기준을 정하게 된다.
● Internal Replica: 지능 모델은 센서의 수집된 데이터를 통해 사물들을 지각하게 된다. ODE body dynamics 시뮬레이터를 사용하여 mental model이 설계된다. ODE는 3차원 방식의 사물을 Newtonian 물리학을 사용하여 표현하게 된다. 이를 통해 로봇의 정보를 업데이트 시킬 수도 있다.
● OpenGL 3D: 카메라에서 보이는 시각적인 부분을 3차원 그래픽으로 시뮬레이션 하게 된다. 이는 ODE 시뮬레이터와 통합되어, 사물의 물체를 시각적으로 표현할 수 있게 된다.

2. Ripley 프로젝트에 대한 시사점
본 프로젝트에서 관심을 둔 부분은 로봇과 사물의 인지이다. 그러므로 자연어에 의해 작동되는 부분은 언급이 되지 않았다. 추후 연구되어야 할 부분은 단어의 발성에 따라 로봇이 작동되어야 할 것이다. 인간과 로봇과의 상호관계성을 통해 기초적인 자연어의 구사가 가능하고, 이를 통해 로봇으로 하여금 인간이 하기 어려운 (예> deep sea robot, hazardous material carrying robot) 역할을 로봇이 감당 할 수 가 있다. 로봇은 인공지능 기법으로 상황설정과 환경을 인지하고 학습하는 능력이 있다. 자체적으로 생각하고 인간의 의도를 생각하기에는 아직도 많은 연구가 되어져야 한다. 인간중심적인 로봇으로 개발되어, 인간 편의주의로 인간의 문맥을 인지하여, 인간에게 도움을 준다면, 유비쿼터스 시대에 로봇의 역할을 잘 할 수 있을 것이다. 그런 의미에서 상황과 문맥을 인지한다는 로봇 개발은 앞으로 로봇의 비전을 구체화 시키게 된 것이다. 아직은 연구중이고, 개발되어야 할 부분이 많다. 간단한 문장만 인지 할 수 있기에, 복잡한 문장의 구조를 파악하기에는 기계가 아직 미숙한 부분이 많다.

V. 유비쿼터스 컴퓨팅 실용화에 있어서의 시사점
‘유비쿼터스‘는 아직 멀었다는 정보통신부의 입장은 아직까지 유비쿼터스 컴퓨팅 기반 연구 및 이와 관련한 응용 모델들이 모색되고 있는 시점이며, 이의 killer application을 개발하는 과정이기에, 아직까지 사업화는 이르다는 것이다. 유비쿼터스 컴퓨팅의 구체화 및 실현화를 위해서는 해외 및 국내 연구프로젝트 사례를 끊임없이 분석하고 이와 응용 가능한 비즈니스 모델 및 정부과제를 수행하는 것이 필요하다고 판단 될 수 있다. 위의 유비쿼터스 컴퓨팅 기반 사례는 생활속의 컴퓨팅 개념인, calm computing의 속성을 표출하였다고 정의 할 수 있다.



참고문헌
[1] Nelson Minar, Matthew Gray, Oliver Roup, Raffi Krikorian, Pattie Maes, HIVE:Distributed Agent System, First International Symposium on Agent Systems and Applications (ASA'99)/Third International Symposium on Mobile Agents (MA'99).
[2]J. Lifton, J. Lee, Media Matrix: Self-Organizing Distributed Physical Database, Proceedings of the ACM CHI 2001 Conference - Extended Abstracts, pp. 193-194.
[3] Smith, B.K, Blankinship, E., AshfordIII, A., Baker, M., & Hirzel, T.(2000). Image Maps : Exploring urban history through digital photographs. In T.Ishida & K. Isbister (eds.), Digital Cities: Technologies, Experiences, and Future Perspectives(pp.326-337). Berlin : Springer-Verlag.
[4] Deb Roy, Kai-yuh Hsiao, Nikolaos Mavridis. Conversational Robots: Building Blocks for Grounding Word Meanings. In Proceedings of the HLT-NAACL03 Workshop on Learning Word Meaning from Non-Linguistic Data



[Facebook]



  추천하기   목록보기

Copyright 1999-2022 Zeroboard / skin by zero