KR101257438B1 - System for guiding a indoor waking-path of situation-based using a color-code and method thereof - Google Patents
System for guiding a indoor waking-path of situation-based using a color-code and method thereof Download PDFInfo
- Publication number
- KR101257438B1 KR101257438B1 KR1020110142136A KR20110142136A KR101257438B1 KR 101257438 B1 KR101257438 B1 KR 101257438B1 KR 1020110142136 A KR1020110142136 A KR 1020110142136A KR 20110142136 A KR20110142136 A KR 20110142136A KR 101257438 B1 KR101257438 B1 KR 101257438B1
- Authority
- KR
- South Korea
- Prior art keywords
- situation
- image
- module
- code
- input
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H3/00—Appliances for aiding patients or disabled persons to walk about
- A61H3/06—Walking aids for blind persons
- A61H3/061—Walking aids for blind persons with electronic detecting or guiding means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Physics & Mathematics (AREA)
- Epidemiology (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Navigation (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 칼라코드를 이용한 상황인지기반의 실내보행안내시스템 및 방법에 관한 것으로, 보다 상세하게는 카메라를 통해 수신한 보행자의 현재 상황에 대한 인지를 통해 해당 상황에 맞는 칼라코드를 계층적으로 검출하고, 이를 해석하여 보행자의 현재 상황에 가장 적합한 환경정보를 출력함으로써, 목적지까지 정확한 보행안내서비스를 제공하는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템 및 방법에 관한 것이다.The present invention relates to a situation-based indoor walking guidance system and method using a color code, and more specifically, to detect a color code corresponding to the situation hierarchically by recognizing a current situation of a pedestrian received through a camera. The present invention relates to a situation-based indoor walking guidance system and method using a color code that provides accurate walking guidance service to a destination by outputting environmental information most suitable for the current situation of a pedestrian.
일반적으로 시각장애인은 물체를 식별하지 못하고 자신의 실질적인 위치를 인지하지 못하여 원하는 곳에 안전한 출원이 어려우며, 외출 시 많은 위험에 노출된다. 많은 시각장애인은 물건의 위치를 나타내는 점자물에 의존하고 있으나, 이 역시 행동에 큰 제약을 받게되는 문제가 있었다.In general, a blind person does not recognize an object and does not recognize his or her actual location, so it is difficult to secure a secure application where he / she wants, and is exposed to many dangers when going out. Many visually impaired people rely on braille to indicate the location of objects, but this also has a problem of being very limited in behavior.
이러한 문제점을 해결하기 위해서 일부 시각장애인은 보행 및 안전을 위해 안내견에 의존하고 있으나, 안내견을 이용한 방법 또한 현재 보행자의 위치에 대한 실질적인 청각적 인지가 불가능하기 때문에 안전 보행에는 한계가 따르는 문제가 있었다.In order to solve these problems, some visually impaired people rely on guide dogs for walking and safety. However, there is a problem in that safety walking is limited because the method of using guide dogs is not possible to actually perceive the position of pedestrians.
종래에는 GPS장치를 이용하여 보행안내를 받는 방법이 제공되긴 하지만, 이는 실내에서 안내를 받을 수 없는 문제가 있을 뿐아니라, GPS 장치는 GPS위성을 이용한 것으로서 거리 인식의 오차범위가 매우 크기 때문에 시각장애인을 잘못된 위치로 안내할 수 있어 문제가 많았다.Conventionally, a method of receiving a walking guide using a GPS device is provided, but this is not only a problem that cannot be guided indoors. In addition, the GPS device uses a GPS satellite, and thus the error range of distance recognition is very large. There were a lot of problems because it could lead to the wrong location.
이러한 문제점을 해결하기 위해서 한국공개특허 제10-2011-0127457호 (발명의 명칭: GPS와 RFID를 이용한 시각장애인 보행안내 시스템)는 RFID 수단을 사용하여 보행안내가 필요한 위치에 해당 RFID 태그를 설치하고, 시각장애인이 휴대한 RFID 리더기가 해당 RFID 태그를 인식하면, 인식된 해당 태그정보에 대응되는 음성신호를 출력함으로써 시각장애인의 안전보행을 유도할 수 있는 RFID와 GPS를 이용한 시각장애인 보행안내 시스템을 제공하고 있다. 다만, 이러한 발명 역시 아주 근접한 거리에서만 사용이 가능한 RFID의 문제점을 해결하지 못했기 때문에 시각장애인을 위한 실내보행안내시스템으로는 문제가 있었다. In order to solve this problem, Korean Laid-Open Patent Publication No. 10-2011-0127457 (name of the invention: a visually impaired pedestrian guide system using GPS and RFID) installs a corresponding RFID tag at a position requiring pedestrian guidance using RFID means. When the RFID reader carried by the visually impaired recognizes the RFID tag, the visually impaired pedestrian guidance system using RFID and GPS that induces the safe walking of the visually impaired by outputting a voice signal corresponding to the recognized tag information. Providing. However, this invention also has a problem as an indoor walking guidance system for the visually impaired because it did not solve the problem of RFID that can be used only in close proximity.
본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 최장 2.5m에서도 검출이 가능한 칼라코드를 이용함으로써, 실내 어느 상황에서도 적절한 보행안내서비스를 제공받을 수 있는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템 및 방법을 제공함에 있다. The present invention has been made in view of the above problems, by using a color code that can be detected at a maximum of 2.5m, indoor walking based on the situation using a color code that can be provided with the appropriate walking guidance service in any indoor situation To provide a guide system and method.
그리고, 상황을 먼저 인지함으로써, 해당 상황에 가장 적합한 칼라코드를 계층적으로 검출하고 이를 해석함으로써, 보다 원활하고 정확한 실내보행안내 서비스를 제공받을 수 있는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템 및 방법을 제공함에 있다. Then, by first recognizing the situation, by hierarchically detecting and interpreting the color code most suitable for the situation, the indoor pedestrian guidance system based on the situational awareness using the color code that can be provided with a smooth and accurate indoor pedestrian guidance service. And providing a method.
이러한 기술적 과제를 달성하기 위한 본 발명은, 보행자의 최종목적지 입력신호를 수신하고, 카메라를 통해 보행자의 현재상황이미지를 입력받는 입력모듈 및 환경정보를 출력하는 출력모듈을 포함하는 입출력부; 상기 입력모듈로부터 보행자의 현재상황이미지를 수신하여, 특징을 추출하고, 저장된 기본상황이미지와의 유사도분석을 통해 현재상황을 인지하는 상황인지부; 및 상기 상황인지부에서 인식된 현재상황에 적합한 칼라코드를 계층적으로 검출하고, 검출된 칼라코드를 분석하여 환경정보를 생성하는 코드처리부; 를 포함한다.The present invention for achieving the technical problem, the input and output unit including an input module for receiving the final destination input signal of the pedestrian, the input module for receiving the current status image of the pedestrian through the camera and the output module for outputting environmental information; A situation recognition unit which receives a current situation image of a pedestrian from the input module, extracts a feature, and recognizes the current situation by analyzing a similarity with the stored basic situation image; And a code processor for hierarchically detecting a color code suitable for the current situation recognized by the situation recognition unit, and analyzing the detected color code to generate environment information. .
또한, 상기 입출력부가 보행자의 최종목적지와 보행자의 현재상황이미지를 수신하는 단계; 상기 상황인지부가 수신한 보행자의 현재상황이미지로부터 SURF 특징을 추출하고, 기본상황이미지와의 유사도를 계산하여, 유사도가 높은 이미지를 보행자의 현재상황으로 인지하는 단계; 상기 코드처리부가 현재 보행자의 상황이 인지되면, 인식된 현재 상황에 적합한 칼라코드를 계층적으로 검출하는 단계; 상기 코드처리부가 계층적으로 검출된 칼라코드에 저장된 환경정보를 해석하는 단계; 및 입출력부는 해석된 환경정보를 보행자에게 출력하는 단계; 를 포함한다.In addition, the input and output unit receiving the final destination of the pedestrian and the current status image of the pedestrian; Extracting the SURF feature from the current situation image of the pedestrian received by the situation recognition unit, calculating a similarity with the basic situation image, and recognizing the high similarity image as the current situation of the pedestrian; If the code processor recognizes the current pedestrian situation, hierarchically detecting a color code suitable for the recognized current situation; Interpreting, by the code processor, environment information stored in color codes detected hierarchically; And outputting, by the input / output unit, the analyzed environmental information to a pedestrian. .
상기와 같은 본 발명에 따르면, 최장 2.5m에서도 검출이 가능한 칼라코드를 이용함으로써, 실내 어느 상황에서도 적절한 보행안내서비스를 제공할 수 있다. According to the present invention as described above, by using a color code that can be detected at a maximum of 2.5m, it is possible to provide an appropriate walking guidance service in any indoor situation.
또한, 상황을 먼저 인지함으로써, 해당 상황에 가장 적합한 칼라코드를 계층적으로 검출하고 이를 해석함으로써, 보다 원활하고 정확한 실내보행안내 서비스를 제공 할 수 있다.In addition, by first aware of the situation, by hierarchically detecting and interpreting the color code most suitable for the situation, it is possible to provide a smooth and accurate indoor walking guidance service.
도 1 은 본 발명의 일실시예에 따른 칼라코드를 이용한 상황인지기반의 실내보행안내시스템의 블록구성도.
도 2 는 본 발명의 일실시예에 따른 SURF descriptor의 특징 추출방법을 이용하여 상황의 특징을 추출한 도면.
도 3 은 본 발명의 일실시예에 따른 칼라코드의 구성을 표시한 도면으로, 도 3a는 칼라바코드를, 도 3b는 픽토그램을, 도 3c는 방향코드를 표시한 도면.
도 4 는 본 발명의 일실시예에 따른 계층적 칼라코드 검출방법에 대한 흐름도.
도 5 는 본 발명의 일실시예에 따른 cascade 방법에 따른 흐름도.
도 6 은 본 발명의 일실시예에 따른 칼라코드를 이용한 상황인지기반의 실내보행안내방법에 대한 흐름도.1 is a block diagram of a context-based indoor walking guidance system using a color code according to an embodiment of the present invention.
2 is a diagram illustrating a feature of a situation using a feature extraction method of a SURF descriptor according to an embodiment of the present invention;
3 is a view showing the configuration of a color code according to an embodiment of the present invention, Figure 3a is a color bar code, Figure 3b is a pictogram, Figure 3c is a view showing a direction code.
4 is a flowchart illustrating a hierarchical color code detection method according to an embodiment of the present invention.
5 is a flowchart according to a cascade method according to an embodiment of the present invention.
Figure 6 is a flow diagram for a situation-based indoor walking guidance method using a color code according to an embodiment of the present invention.
본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.
이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described in detail with reference to the accompanying drawings.
본 발명은 칼라코드를 이용한 상황인지기반의 실내보행안내시스템 및 방법 에 관한 것으로서, 도 1 내지 도 6 를 참조하여 설명하면 다음과 같다. The present invention relates to a situation-based indoor walking guidance system and method using color codes, which will be described below with reference to FIGS. 1 to 6.
도 1 은 본 발명의 일실시예에 따른 칼라코드를 이용한 상황인지기반의 실내보행안내시스템의 블록구성도이며, 본 시스템은 입출력부(100), 상황인지부(200) 및 코드처리부(300)를 포함한다.1 is a block diagram of a context-based indoor walking guide system using a color code according to an embodiment of the present invention, and the system is an input /
입출력부(100)는 입력모듈(110) 및 출력모듈(120)을 포함하는데, 입력모듈(110)은 보행자의 최종목적지 입력신호를 수신하고, 카메라를 통해 보행자의 현재상황이미지를 입력받는 것으로, 본 시스템으로 들어오는 모든 정보 및 신호를 입력받는 기능을 수행한다. 후술할 상황인지부(200)가 보행자의 현재 상황을 인지할 수 있도록 현재 상황에 대한 영상을 수집하는 카메라와 보행자의 최종목적지에 대한 정보를 입력받을 수 있는 입력수단을 포함한다. 여기서 입력수단은 키보드, 키패드와 같은 문자입력수단을 물론이거니와 사람의 음성을 인식하여 목적지를 파악하는 음성인식수단 등을 포함할 것이다. 또한, 지역지도 등을 이용하여 목적지를 선택함으로써 목적지를 파악하는 시각적입력수단도 포함한다.The input /
출력모듈(120)은 환경정보를 보행자에게 출력하는 부분으로, 디스플레이기를 이용한 시각적인 출력은 물론, 스피커기를 이용한 청각적인 출력도 가능하다. 여기서 텍스트를 음성으로 바꾸어 출력하는 TTS 인터페이스를 이용하여, 주어진 목적지에 대한 위치나 방향과 같이 인식된 결과를 보행자에게 출력한다. The
이때 환경정보는 현재 사용자의 상황에 대한 위치정보와 방향정보를 포함한다.At this time, the environmental information includes location information and direction information on the current user's situation.
특히 입출력부(100)는 상기 입력모듈(110)과 출력모듈(120)이 상호 소통하면서, 입력모듈(110)의 최종목적지정보와 출력모듈의 환경정보가 불일치하는 경우, 상황인지부(200)에 보행자의 현재상황이미지를 전송하여, 본 시스템을 반복하도록 한다.
In particular, when the
상황인지부(200)는 상기 입력모듈로부터 보행자의 현재상황이미지를 수신하여, 특징을 추출하고, 저장된 기본상황이미지와의 유사도분석을 통해 현재상황을 인지하며, DB모듈(210), 이미지수신모듈(220) 및 상황인지모듈(230)을 포함한다.The
현재상황이 어떠한 상황인지를 인식하는 일은 기본적인 샘플데이터와의 비교를 통해 이루어지는 것인데, 실제로 세상에 존재하는 다양한 상황에 대해 모두 정의하여 인지하는 것은 불가능한 일이다. 따라서, 본 시스템은 상황을 좀 더 단순히 정리하여 인식할 수 있도록, 문(door)상황, 복도(corridor)상황, 홀(hall)상황 및 결합(junction)상황 총 4가지 경우를 상정하여 샘플데이터를 정의한다. Recognition of what is happening is based on comparison with basic sample data, and it is impossible to define and recognize all the various situations in the world. Therefore, the system assumes a total of four cases of door situation, corridor situation, hall situation, and junction situation in order to organize and recognize the situation more simply. define.
DB모듈(210)은 본 시스템의 오프라인단계로서, 앞서 정의한 4가지 상황에 대하여, SURF 특징 추출방법을 사용하여 기본상황이미지를 인덱싱하여 저장한다. 수많은 상황이 존재하겠지만, 각각의 상황은 그 상황만이 가지는 특징을 가지고 있기 때문에, 이를 추출하여, 가장 유사한 상기 4가지 상황으로 분류하여 정의할 수 있다. 예를 들어 A라는 특징이 추출되는 상황은 A상황이라고 정의할 수 있는 인덱싱이 가능하다. 인덱싱이 수행된 정보를 기본상황이미지라고 하고 이를 DB모듈(210)에 저장하게된다.The
보다 구체적으로 설명하면, 상황이미지들을 수집한 기본상황데이터로부터 SURF 특징(SURF descriptor)을 추출하고, 추출된 SURF 특징에 Hierarchical K-means clustering을 적용하여 Vocabulary tree를 생성한다. 후술할 상황인지모듈(230)에서 현재상황이미지와의 비교를 위해 상기 기본데이터를 상기 생성된 Vocabulary tree를 이용하여 주파수 벡터(Frequency vector)* 웨이트(Weight)벡터의 형태로 인덱싱하여 기본상황이미지로 저장한다.In more detail, a SURF descriptor is extracted from basic situation data collected from context images, and a vocabulary tree is generated by applying Hierarchical K-means clustering to the extracted SURF feature. In the context-
도 2 는 본 발명의 일실시예에 따른 SURF descriptor의 특징 추출방법을 이용하여 상황의 특징을 추출한 도면이다. 도 2의 (a), (b)와 같이 기본데이터에 대해 SURF descriptor의 특징 추출방법을 사용하면 (c),(d),(e) 같이 특징점이 추출되고, 이를 각각의 주파수 벡터(Frequency vector)* 웨이트(Weight)벡터를 계산하면, 각 상황의 특징에 맞게 문(door)상황, 복도(corridor)상황, 홀(hall)상황 및 결합(junction)상황으로 각각 인덱싱되어 기본상황이미지로 저장된다.2 is a diagram illustrating a feature of a situation using a feature extraction method of a SURF descriptor according to an embodiment of the present invention. When the feature extraction method of the SURF descriptor is used for basic data as shown in (a) and (b) of FIG. 2, feature points are extracted as shown in (c), (d), and (e), and each frequency vector is obtained. ) * When the weight vector is calculated, it is indexed into a door situation, a corridor situation, a hall situation, and a junction situation according to the characteristics of each situation and stored as a basic situation image. .
상술한 SURF descriptor, K-means clustering는 모두 통상의 기술로 해당 기술자에게 자명한 기술적 내용인바, 발명의 요지를 보다 명확하게 하기 위하여 상세한 설명을 생략한다.The above-described SURF descriptor and K-means clustering are all known in the art and are well known to those skilled in the art, and thus detailed descriptions thereof will be omitted for clarity.
한편, 상기 주파수 벡터(Frequency vector)*웨이트(Weight)벡터의 형태는 [수학식 1]에 의한다.Meanwhile, the form of the frequency vector * weight vector is based on [Equation 1].
여기서, t는 기본상황이미지, m는 이미지에서 추출된 SURF 특징들이 Vocabulary tree의 node에 나타나는 횟수를 벡터의 형태로 표현한 주파수 벡터(Frequency vector), w는 빈번한/빈번하지 않은 노드들을 노이즈 노드라 간주하여 반영율을 줄여주기 위해 사용하는 웨이트(Weight)벡터 이다. Where t is the basic situation image, m is the frequency vector representing the number of times the SURF features extracted from the image appear in the nodes of the vocabulary tree, and w is the noise node. Weight vector used to reduce reflectance.
한편, 본 시스템에서는 leaf node의 횟수 분포를 사용하였으며, inner node의 횟수 분포를 사용하지 않았다.
Meanwhile, in this system, the number distribution of leaf nodes is used, and the number distribution of inner nodes is not used.
이미지수신모듈(220)은 상기 입력모듈로부터 수신된 현재상황이미지를 수신한다. 상황인지부(200)는 로드에 비교적 많은 시간이 소요되기 때문에 카메라로부터 바로 이미지를 입력받는 것이 아니라, 주기적으로 상기 입력모듈(110)로부터 입력된 이미지를 이미지수신모듈(220)을 통해 수신한다.
The image receiving
상황인지모듈(230)은 상기 이미지수신모듈(220)로부터 수신된 현재상황이미지로부터 SURF 특징을 추출하고, 상기 DB모듈의 기본상황이미지와의 유사도를 계산하여, 유사도가 높은 이미지를 보행자의 현재상황으로 인지한다.The
보다 구체적으로 설명하면, 상황인지모듈(230)은 상기 이미지수신모듈(220)로부터 수신된 현재상황이미지로부터 SURF 특징을 추출하고, 상기 DB모듈(210)에서 생성한 Vocabulary tree를 사용하여 주파수 벡터(Frequency vector)*웨이트(Weight)벡터를 계산한다. More specifically, the
여기서, 현재상황이미지를 q라고 하면, q의 주파수 벡터(Frequency vector)*웨이트(Weight)벡터는 [수학식 2]와 같다.Here, if the current situation image is q, the frequency vector * weight vector of q is expressed by
여기서, q는 현재상황이미지, n는 이미지에서 추출된 SURF 특징들이 Vocabulary tree의 node에 나타나는 횟수를 벡터의 형태로 표현한 주파수 벡터(Frequency vector), w는 빈번한/빈번하지 않은 노드들을 노이즈 노드라 간주하여 반영율을 줄여주기 위해 사용하는 웨이트(Weight)벡터 이다. Where q is the current state image, n is the frequency vector representing the number of times the SURF features extracted from the image appear in the nodes of the Vocabulary tree in the form of a vector, and w is the noise node. Weight vector used to reduce reflectance.
한편, 본 시스템에서는 leaf node의 횟수 분포를 사용하였으며, inner node의 횟수 분포를 사용하지 않았다.
Meanwhile, in this system, the number distribution of leaf nodes is used, and the number distribution of inner nodes is not used.
t와 q의 값을 상기 [수학식 1]과 [수학식 2]를 통해 계산하면, 상기 기본상황이미지 t와 현재상황이미지 q의 벡터값을 비교하여 가장 유사도 s가 높은 이미지를 현재 사용자의 상황으로 인지한다.When the values of t and q are calculated through
즉, 현재상황이미지의 분석결과 해당 벡터의 값이 기본상황이미지의 문(door)상황 벡터와 가장 높은 유사도로 판단된다면, 현재상황을 문(door)상황이라고 인지하고, 그와 유사하게, 현재상황이미지의 분석결과 해당 벡터의 값이 기본상황이미지의 복도(corridor)상황 벡터와 가장 높은 유사도로 판단된다면, 현재상황을 복도(corridor)상황이라고 인지하게 된다.That is, if the analysis result of the current situation image determines that the value of the vector is the highest similarity with the door situation vector of the basic situation image, the current situation is recognized as the door situation, and similarly, the current situation As a result of analyzing the image, if the value of the vector is determined as the highest similarity with the corridor situation vector of the basic situation image, the current situation is recognized as a corridor situation.
유사도 s 는 [수학식 3]에 의하는데, s 값이 작은 값일수록 높은 유사도라고 판단한다. The similarity s is based on [Equation 3], and the smaller the value of s, the higher the similarity is determined.
코드처리부(300)는 상기 상황인지부(200)에서 인식된 현재상황에 적합한 칼라코드를 계층적으로 검출하고, 검출된 칼라코드를 분석하여 환경정보를 생성하며, 코드검출모듈(310) 및 코드해석모듈(320)를 포함한다.The
코드검출모듈(310)은 상기 상황인지부(200)에서 인식된 현재상황에 따라 적합한 칼라코드를 계층적으로 검출한다. The
코드검출모듈(310)에서 검출하는 코드는 칼라코드로, 칼라코드는 위치정보를 표시하는 위치코드 및 방향정보를 표시하는 방향코드로 구성된다. 이때 위치코드는 칼라바코드와 픽토그램으로 구성된다. The code detected by the
도 3 은 본 발명의 일실시예에 따른 칼라코드의 구성을 표시한 도면으로, 이를 보면 칼라코드에 대해 명확히 알 수 있다.Figure 3 is a view showing the configuration of the color code according to an embodiment of the present invention, it can be seen clearly about the color code.
칼라바코드(도 3a)는 색깔과 순서를 이용하여 위치정보를 표시하며, 픽토그램(도 3b)은 사용빈도수가 가장 많은 10개의 픽토그램을 선정하였다. The color bar code (FIG. 3A) displays location information using color and order, and the pictogram (FIG. 3B) selects ten pictograms with the highest frequency of use.
방향코드(도 3c)는 상기 위치코드와 화살표의 결합으로 표시되며, 칼라바코드, 픽토그램 및 방향코드는 그 사이즈로 구분될 수 있다. 정확히 사이즈는 너비(width)와 높이(height)의 곱에 비래하는 값으로 표시되며, 그 값은 아래 [표 1]과 같다.
The direction code (FIG. 3C) is indicated by the combination of the location code and the arrow, and the color bar code, pictogram and direction code can be classified by their size. Exactly the size is expressed as a value that is equal to the product of width and height, as shown in Table 1 below.
코드검출모듈(310)이 코드를 계층적으로 검출하는 방법은 4가지 단계로 구성된다.The method of detecting code hierarchically by the
실내 환경에서 갑작스러운 조명 변화로 인해 영상이 너무 밝게 나타나거나 및 그림자 등으로 인해 이미지 전체가 어둡게 나타나는 경우(영상 대비가 좁게 나타남), 영상 대비를 펴줌으로써 환경변화로 인한 검출 에러를 줄여주기 위한 전처리 를 거친다(S410).If the image appears too bright due to a sudden change of lighting in the indoor environment, or the whole image appears dark due to shadows (narrow image contrast), preprocessing to reduce the detection error due to environmental changes by spreading the image contrast Through (S410).
상기 S410 단계의 전처리 후, 컬러코드를 검출하기 위해 영상의 각 픽셀을 '녹색' 혹은 '비 녹색' 픽셀로 구분하는 binarization 단계를 거친다(S420).After the preprocessing of step S410, in order to detect a color code, a binarization step of dividing each pixel of the image into 'green' or 'non-green' pixels is performed (S420).
본 시스템은 칼라코드를 공통적으로 녹색의 quiet zone을 사용하였기 때문에 영상을 녹색' 혹은 '비 녹색' 픽셀로 구분하게 된다. 구분하는 방법은 [수학식 4]와 같다.The system uses color-coded quiet zones in common, so the image is divided into 'green' or 'non-green' pixels. How to classify is shown in [Equation 4].
다만, 상술한 수식은 본 발명처럼 녹색의 quiet zone을 사용한 경우를 일실시예로 설명한 것 일뿐 이에 한정되어 설계한 것은 아니다.
However, the above-described formula is not limited to the design of only one embodiment of the case of using the green quiet zone as in the present invention.
S420 단계 이후, 영상에서 녹색영역으로 간주되어 검출된 컬러코드 후보영역들에 Row-by-Row 라벨링을 수행하고, 영상에 포함된 노이즈 영역들을 제거하기 위해 각 영역의 Area, Circularity, Width-height ratio를 계산하여 미리 정의된 Threshold값과 비교하여 노이즈 영역들을 제거한다(S430). After step S420, Row-by-Row labeling is performed on color code candidate areas detected as being green areas in the image, and Area, Circularity, Width-height ratio of each area is removed to remove noise areas included in the image. The noise regions are removed by comparing with the predefined threshold value (S430).
여기서 계층적으로 검출한다는 의미는 현재상황에 따라 가장 적합한 칼라코드를 먼저 검출한다는 의미로, 계층적인 검출을 통해 본 시스템은 좀 더 효율적인 수행이 가능하다. 도 4 는 본 발명의 일실시예에 따른 계층적 칼라코드 검출방법에 대한 흐름도이며, 이를 토대로 설명한다.The hierarchical detection means that the most suitable color code is detected first according to the current situation. The hierarchical detection enables the system to be more efficiently performed. 4 is a flowchart illustrating a hierarchical color code detection method according to an embodiment of the present invention, and will be described based on this.
실제로 문(door)상황에서는 방향정보보다 위치정보가 더 중요하게 작용하기 때문에, 이때는 방향코드를 먼저 검출하기 보다는 칼라바코드나 픽토그램을 먼저 검출하는 것이 보다 효율적이고, 다른 상황에서는 방향정보가 더 중요하기 때문에 방향코드를 먼저 검출하고, 그 후에 픽토그램을 검출하고, 칼라바코드를 검출하는 순서로 계층적으로 코드를 검출하는 것이 더 효율적이다.In fact, location information is more important than direction information in a door situation. In this case, it is more efficient to detect a color bar code or a pictogram first rather than direction code first, and in other situations, direction information is more important. Therefore, it is more efficient to detect the direction code first, then the pictogram and then the code hierarchically in the order of detecting the color bar code.
특정 상황에서 계층적으로 칼라코드를 검출하는 방법, 즉 방향코드를 먼저 검출할지, 픽토그램을 먼저 검출할지 여부의 판단 기준은 상기 [표 1]에 의한다. 즉 너비ㅧ높이(비)를 이용하여 어떠한 칼라코드를 먼저 검출하지를 결정하여 해당 상황에 가장 적합한 칼라코드를 검출한다.
The criteria for detecting a color code hierarchically in a specific situation, that is, whether to detect a direction code first or a pictogram first is based on [Table 1]. That is, the color code most suitable for the situation is detected by determining which color code is detected first using the width ㅧ height (ratio).
S430 단계 이후, 컬러코드가 분리되어 검출되는 것을 방지하기 위해 인접하게 검출된 영역들을 연결하는 작업을 수행하여 하나의 컬러 코드로 검출되도록 하는 후처리 단계를 거친다(S440). S440단계를 통해 보다 명확하게 칼라코드를 검출할 수 있다.
After the step S430, in order to prevent the color code from being detected separately, a process of connecting adjacently detected areas is performed to undergo a post-processing step to be detected as one color code (S440). Through the step S440 it is possible to detect the color code more clearly.
코드해석모듈(320)은 상기 코드검출모듈(310)에서 검출된 코드에 대해 저장된 해당 정보를 해석하는 것으로, 빠른 계산을 위해 각 인식 모듈은 공통적으로 컬러 코드의 중간 라인을 추출하여 수행한다. 해석하는 방법은 칼라코드 종류에 따라 각각 다르며, 위치코드인 칼라바코드와 픽토그램은 해석을 통해 현재상황의 위치정보를 취득할 수 있고, 방향코드는 해석을 통해 현재상황의 방향정보를 취득할 수 있다. 이렇게 취득한 위치정보와 방향정보를 환경정보라고 한다.The
칼라바코드를 해석하는 방법은 다음과 같다. 칼라바코드는 8개의 컬러 패치로 구성되어 있는데, 빠른 계산을 위해 중간 가로선을 추출하여 수행한다. 가장 먼저 컬러 패치 사이의 경계를 결정하기 위해 가우시안 필터와 Prewitt 엣지 검출기를 적용한다. 검출된 경계 부분을 제외한 컬러 패치 부분은 Cascade방법을 사용하여 하나의 컬러로 매핑되고, 컬러 패치를 구성하는 픽셀의 색상 중 가장 큰 점유율을 가지는 색상으로 대표 컬러로 선정한다. 각 패치의 컬러에 해당하는 숫자 값에 5진법을 적용하여 컬러 바코드를 디코딩한다. 칼라바코드를 통해 해당 위치의 숫자정보 등을 해석할 수 있다.The color bar code is interpreted as follows. The color bar code consists of eight color patches, which are performed by extracting the middle horizontal lines for quick calculation. First, a Gaussian filter and a Prewitt edge detector are applied to determine the boundary between color patches. The color patch portion except the detected boundary portion is mapped to one color using the Cascade method, and is selected as the representative color as the color having the largest occupancy among the colors of the pixels constituting the color patch. Decode the color barcode by applying the decimal system to the numeric value corresponding to the color of each patch. Color bar code can be used to interpret numerical information of the location.
상기 Cascade방법은 도 5 에 기재하였으나, 이에 대한 내용은 통상적인 방법으로, 당업자라면 자명하게 알 수 있는 내용인바, 이에 대한 설명은 생략한다.Although the Cascade method is described in FIG. 5, the description thereof is a general method, which is obvious to those skilled in the art, and a description thereof will be omitted.
픽토그램을 해석하는 방법은 픽토그램의 가로와 세로의 중앙선을 추출하고, 이를 템플릿 사이즈로 정규화 한 후, 추출된 중앙선에 대해 빨강, 녹색, 파랑, 하얀색 채널에 대한 컬러 히스토그램을 계산한다. 계산된 히스토그램들은 템플릿 픽토그램과 Hamming 거리를 사용하여 가장 유사한 픽토그램으로 인식한다. 픽토그램을 통해 상기 칼라바코드에서 제공하지 못하는 위치정보를 보다 상세히 제공하는 기능을 수행한다. 따라서, 칼라바코드와 픽토그램을 통해 보행자는 현재 상황에 대한 위치정보를 획득할 수 있다.To interpret the pictogram, the horizontal and vertical center lines of the pictogram are extracted, normalized to the template size, and color histograms for the red, green, blue, and white channels are calculated for the extracted center lines. The calculated histograms are recognized as the most similar pictograms using template pictograms and Hamming distances. It performs a function of providing in detail the location information that can not be provided by the color bar code through a pictogram. Therefore, the pedestrian can obtain location information on the current situation through the color bar code and the pictogram.
한편, 방향코드의 해석방법은 다음과 같다. 방향코드는 위치코드와 화살표 픽토그램으로 구성되는데, 가장 먼저 위치코드와 화살표 픽토그램으로 분할하여, 가로 중앙선을 추출 후, 반을 나누어 각 부분에서 흰색 픽셀이 나타나는 점유율을 계산하여 높은 점유율을 가지는 부분을 화살표 픽토그램의 방향으로 인식하며, 위치 코드 부분은 위의 컬러바코드 디코더, 픽토그램 인식기를 사용하여 인식하여 두 결과를 조합함으로써, 방향정보를 획득한다.On the other hand, the interpretation method of the direction code is as follows. The direction code consists of a location code and an arrow pictogram, which are first divided into a location code and an arrow pictogram, the horizontal center line is extracted, and then divided in half to calculate the occupancy rate where white pixels appear in each part. Recognizing in the direction of the pictogram, the location code portion is recognized by using the above color bar code decoder, pictogram recognizer to combine the two results, to obtain the direction information.
마지막으로 코드해석모듈(320)은 각각의 칼라코드에서 획득한 환경정보를 종합하여, 이를 입출력부(100)에 전송한다.
Finally, the
도 6 은 본 발명의 일실시예에 따른 칼라코드를 이용한 상황인지기반의 실내보행안내방법에 대한 흐름도이다.6 is a flowchart illustrating a situation-based indoor walking guidance method using color codes according to an embodiment of the present invention.
입출력부(100)의 입력모듈(110)은 보행자의 최종목적지와 보행자의 현재상황이미지를 수신한다(S610).The
상황인지부(200)는 상기 S610 단계에서 수신한 보행자의 현재상황이미지로부터 SURF 특징을 추출하고, 상기 DB모듈의 기본상황이미지와의 유사도를 계산하여, 유사도가 높은 이미지를 보행자의 현재상황으로 인지한다(S620).The
이때, 기본상황이미지를 생성하기 위해서는 S620 단계 전에 상황이미지들을 수집한 기본상황데이터로부터 SURF 특징(SURF descriptor)을 추출하고, 추출된 SURF 특징에 Hierarchical K-means clustering을 적용하여 Vocabulary tree를 생성한 후, 생성된 상기 Vocabulary tree를 이용하여 주파수 벡터(Frequency vector)* 웨이트(Weight)벡터의 형태로 인덱싱하여 기본상황이미지로 저장한다(S620').At this time, in order to generate the basic situation image, the SURF descriptor is extracted from the basic situation data collected from the situation images before step S620, and the vocal tree is generated by applying Hierarchical K-means clustering to the extracted SURF feature. By using the generated Vocabulary tree, indexing is performed in the form of a frequency vector * weight vector and stored as a basic situation image (S620 ').
상기 S620 단계로부터, 현재 보행자의 상황이 인지가 되면, 코드처리부(300)의 코드검출모듈(310)은 상기 S620 단계에서 인식된 현재 상황에 따라 적합한 칼라코드를 계층적으로 검출한다(S630). 그 후, 코드해석모듈(320)은 S630 단계에서 계층적으로 검출된 칼라코드에 대해 저장된 해당 정보를 해석한다(S640).If the current situation of the pedestrian is recognized from the step S620, the
상기 S640 단계에서 해석된 정보를 환경정보라고 하며, 이러한 환경정보는 입출력부(100)의 출력모듈(120)에 전송되어 보행자에게 출력된다(S650).The information interpreted in step S640 is called environmental information, and the environmental information is transmitted to the
S650 단계 이후, 입력모듈(110)과 출력모듈(120)은 상호 소통하면서, 상기 S610 단계에서 입력받은 최종목적지정보와 상기 S650 단계에서 전송된 환경정보의 일치여부를 판단한다(S660). After the step S650, while the
상기 S610 단계에서 입력받은 최종목적지정보와 상기 S650 단계에서 전송된 환경정보가 불일치하는 경우, 입력모듈(110)은 보행자의 현재상황이미지를 다시 상황인지부(200)에 전송함으로서, 절차를 S620단계로 회귀한다(S670). 이때는 S620'단계를 다시 거칠 필요는 없다. If the final destination information input in step S610 and the environmental information transmitted in step S650 is inconsistent, the
상기 S660 단계 판단결과, 상기 S610 단계에서 입력받은 최종목적지정보와 상기 S650 단계에서 전송된 환경정보가 일치하는 경우, 출력모듈(120)이 목적지도착신호를 출력하면서 시스템은 종료된다(S680). 즉, 본 시스템은 보행자의 현재환경정보가 목적지정보와 일치할 때까지 반복적으로 수행된다.
As a result of the determination in step S660, when the final destination information input in step S610 and the environment information transmitted in step S650 match, the
이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. And all such modifications and changes as fall within the scope of the present invention are therefore to be regarded as being within the scope of the present invention.
100; 입출력부 110; 입력모듈
120; 출력모듈 200; 상황인지부
210; DB모듈 220; 이미지수신모듈
230; 상황인지모듈 300; 코드처리부
310; 코드검출모듈 320; 코드해석모듈100; Input and
120;
210;
230; Context
310;
Claims (10)
상기 입력모듈(110)로부터 보행자의 현재상황이미지를 수신하여, 특징을 추출하고, 저장된 기본상황이미지와의 유사도분석을 통해 현재상황을 인지하는 상황인지부(200); 및
상기 상황인지부(200)에서 인식된 현재상황에 적합한 칼라코드를 계층적으로 검출하고, 검출된 칼라코드를 분석하여 환경정보를 생성하는 코드처리부(300); 를 포함하는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템.
An input / output unit 100 including an input module 110 for receiving an input signal of the pedestrian's final destination and receiving an image of the current situation of the pedestrian through a camera and an output module 120 for outputting environmental information;
A situation recognition unit 200 which receives a current situation image of a pedestrian from the input module 110, extracts a feature, and recognizes the current situation by analyzing a similarity with the stored basic situation image; And
A code processor 300 for hierarchically detecting a color code suitable for the current situation recognized by the situation recognition unit 200 and analyzing the detected color code to generate environment information; Situational awareness based indoor walking guidance system using a color code comprising a.
상기 입출력부(100)는,
상기 입력모듈(110)과 상기 출력모듈(120)이 상호 소통하면서, 상기 입력모듈(110)의 최종목적지정보와 상기 출력모듈(120)의 환경정보가 불일치하는 경우, 상기 상황인지부(200)에 보행자의 현재상황이미지를 전송하는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템.
The method of claim 1,
The input and output unit 100,
When the input module 110 and the output module 120 are in communication with each other, the final destination information of the input module 110 and the environmental information of the output module 120 is inconsistent, the situation recognition unit 200 Context-aware indoor walking guidance system using color codes to transmit the current situation image of pedestrians.
상기 상황인지부(200)는
SURF 특징 추출방법을 사용하여 기본상황이미지를 저장하는 DB모듈(210);
상기 입력모듈(110)로부터 수신된 현재상황이미지를 수신하는 이미지수신모듈(220); 및
상기 이미지수신모듈(220)로부터 수신된 현재상황이미지로부터 SURF 특징을 추출하고, 상기 DB모듈의 기본상황이미지와의 유사도를 계산하여, 유사도가 높은 이미지를 보행자의 현재상황으로 인지하는 상황인지모듈(230); 를 포함하는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템.
The method of claim 1,
The situation recognition unit 200
DB module 210 for storing the basic situation image using the SURF feature extraction method;
An image receiving module 220 for receiving a current status image received from the input module 110; And
A situation recognition module for extracting SURF features from the current situation image received from the image receiving module 220, calculating similarity with the basic situation image of the DB module, and recognizing an image having high similarity as the current situation of a pedestrian ( 230); Situational awareness based indoor walking guidance system using a color code comprising a.
상기 상황인지모듈(230)은
다음의 수학식에 의해 현재상황이미지와 기본상황이미지와의 유사도를 계산하되, s의 결과가 작은 이미지를 유사도가 높은 이미지로 판단하고, 상기 유사도가 높은 이미지를 보행자의 현재상황으로 인지하는 것을 특징으로 하는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템.
(상기 수식에서,q는 현재상황이미지벡터로 , t는 기본상황이미지벡터로 을 의미한다.)
The method of claim 3, wherein
The situation awareness module 230
The similarity between the current situation image and the basic situation image is calculated using the following equation, but the image having a small result of s is regarded as a high similarity image, and the high similarity image is recognized as the current situation of a pedestrian. Context-aware indoor walking guidance system using color code.
Where q is the current situation image vector , t is the basic situation image vector Means.)
상기 코드처리부(300)는,
상기 상황인지부(200)에서 인식된 현재상황에 따라 적합한 칼라코드를 계층적으로 검출하는 코드검출모듈(310); 및
상기 코드검출모듈(310)에서 검출된 코드에 대해 저장된 해당 정보를 해석하는 코드해석모듈(320); 를 포함하는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템.
The method of claim 1,
The code processing unit 300,
A code detection module 310 for hierarchically detecting a suitable color code according to the current situation recognized by the situation recognition unit 200; And
A code analysis module 320 for interpreting the corresponding information stored for the code detected by the code detection module 310; Situational awareness based indoor walking guidance system using a color code comprising a.
(a) 상기 입출력부(100)가 보행자의 최종목적지와 보행자의 현재상황이미지를 수신하는 단계;
(b) 상기 상황인지부(200)가 상기 (a) 단계에서 수신한 보행자의 현재상황이미지로부터 SURF 특징을 추출하고, 기본상황이미지와의 유사도를 계산하여, 유사도가 높은 이미지를 보행자의 현재상황으로 인지하는 단계;
(c) 상기 코드처리부(300)가 상기 (b) 단계로부터, 현재 보행자의 상황이 인지되면, 상기 (b) 단계에서 인식된 현재 상황에 적합한 칼라코드를 계층적으로 검출하는 단계;
(d) 상기 코드처리부(300)가 (c) 단계에서 계층적으로 검출된 칼라코드에 저장된 환경정보를 해석하는 단계; 및
(e) 입출력부(100)는 상기 (d) 단계에서 해석된 환경정보를 보행자에게 출력하는 단계; 를 포함하는 칼라코드를 이용한 상황인지기반의 실내보행안내방법.
In the indoor walking guidance method using the indoor walking guidance system based on the situation using a color code including the input / output unit 100, the situation recognition unit 200 and the code processing unit 300,
(a) receiving, by the input / output unit 100, an image of a pedestrian's final destination and a pedestrian's current situation;
(b) The situation recognition unit 200 extracts the SURF feature from the current situation image of the pedestrian received in step (a), calculates the similarity with the basic situation image, and displays the high similarity image of the current situation of the pedestrian. Recognizing;
(c) the code processor 300 hierarchically detecting a color code suitable for the current situation recognized in the step (b) when the current pedestrian situation is recognized from the step (b);
(d) interpreting, by the code processor 300, environment information stored in color codes hierarchically detected in step (c); And
(e) the input / output unit 100 outputting the environmental information analyzed in the step (d) to a pedestrian; Situational awareness based indoor walking guidance method using a color code comprising a.
(b) 단계 이전에
(b') 상황인지부(220)가 상황이미지들을 수집한 기본상황데이터로부터 SURF 특징을 추출하고, 추출된 SURF 특징에 Hierarchical K-means clustering을 적용하여 Vocabulary tree를 생성한 후, 생성된 상기 Vocabulary tree를 이용하여 인덱싱함으로서, 기본상황이미지를 저장하는 단계; 를 더 포함하는 칼라코드를 이용한 상황인지기반의 실내보행안내방법.
The method according to claim 6,
before step (b)
(b ') The situation recognition unit 220 extracts the SURF feature from the basic situation data from which the situation images are collected, generates a Vocabulary tree by applying Hierarchical K-means clustering to the extracted SURF feature, and then generates the Vocabulary. storing a basic contextual image by indexing using a tree; Situational awareness based indoor walking guidance method using a color code further comprising.
(f) 상기 (e) 단계 이후, 상기 입출력부(100)는 입력모듈(110)과 출력모듈(120)간 상호 소통하면서, 상기 (a) 단계에서 입력받은 최종목적지정보와 상기 (e)단계에서 출력된 환경정보의 일치여부를 판단하는 단계; 및
(g) 상기 (f) 단계 판단결과, (a) 단계에서 입력받은 최종목적지정보와 상기 (e) 단계에서 전송된 환경정보가 불일치하는 경우,
상기 입출력부(100)는 보행자의 현재상황이미지를 다시 상황인지부(200)에 전송함으로서, 절차를 (b)단계로 절차를 이행하는 것을 특징으로 하는 칼라코드를 이용한 상황인지기반의 실내보행안내방법.
The method according to claim 6,
(f) After the step (e), the input / output unit 100 communicates between the input module 110 and the output module 120, and the final destination information received in the step (a) and the step (e) Determining whether or not the output environment information is identical; And
(g) if the final destination information input in step (a) and the environmental information transmitted in step (e) do not match,
The input / output unit 100 transmits the current situation image of the pedestrian to the situation recognition unit 200 again, and performs the procedure in step (b) based on situation awareness based indoor walking using color codes. Way.
(g') 상기 (f) 단계 판단결과, 상기 (a) 단계에서 입력받은 최종목적지정보와 상기 (e) 단계에서 전송된 환경정보가 일치하는 경우,
상기 입출력부(100)는 목적지도착신호를 출력하면서 종료하는 것을 특징으로 하는 칼라코드를 이용한 상황인지기반의 실내보행안내방법.
The method of claim 8,
(g ') when the final destination information input in the step (a) and the environmental information transmitted in the step (e) are identical,
The input / output unit (100) is a situation-based indoor walking guidance method using a color code, characterized in that ending while outputting the destination arrival signal.
상기 (b) 단계는,
다음의 수학식에 의해 현재상황이미지와 기본상황이미지와의 유사도를 계산하되, s의 결과가 작은 이미지를 유사도가 높은 이미지로 판단하고, 상기 유사도가 높은 이미지를 보행자의 현재상황으로 인지하는 것을 특징으로 하는 칼라코드를 이용한 상황인지기반의 실내보행안내시스템.
(상기 수식에서,q는 현재상황이미지벡터로 , t는 기본상황이미지벡터로 을 의미한다.)
The method according to claim 6,
The step (b)
The similarity between the current situation image and the basic situation image is calculated using the following equation, but the image having a small result of s is regarded as a high similarity image, and the high similarity image is recognized as the current situation of a pedestrian. Context-aware indoor walking guidance system using color code.
Where q is the current situation image vector , t is the basic situation image vector Means.)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110142136A KR101257438B1 (en) | 2011-12-26 | 2011-12-26 | System for guiding a indoor waking-path of situation-based using a color-code and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110142136A KR101257438B1 (en) | 2011-12-26 | 2011-12-26 | System for guiding a indoor waking-path of situation-based using a color-code and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101257438B1 true KR101257438B1 (en) | 2013-04-23 |
Family
ID=48443672
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110142136A KR101257438B1 (en) | 2011-12-26 | 2011-12-26 | System for guiding a indoor waking-path of situation-based using a color-code and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101257438B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160018889A (en) * | 2014-08-07 | 2016-02-18 | 경북대학교 산학협력단 | Voice guide device for braille block and method for recognition of braille block |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005296570A (en) | 2004-04-12 | 2005-10-27 | Tnk:Kk | System and device for guiding visually impaired person |
JP2006178231A (en) | 2004-12-22 | 2006-07-06 | Nishiyodo Seisakusho:Kk | Visually handicapped person supporting system and visually handicapped person supporting method |
KR20090036183A (en) * | 2007-10-09 | 2009-04-14 | 슬림디스크 주식회사 | The method and divice which tell the recognized document image by camera sensor |
KR20090105531A (en) * | 2008-04-03 | 2009-10-07 | 슬림디스크 주식회사 | The method and divice which tell the recognized document image by camera sensor |
-
2011
- 2011-12-26 KR KR1020110142136A patent/KR101257438B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005296570A (en) | 2004-04-12 | 2005-10-27 | Tnk:Kk | System and device for guiding visually impaired person |
JP2006178231A (en) | 2004-12-22 | 2006-07-06 | Nishiyodo Seisakusho:Kk | Visually handicapped person supporting system and visually handicapped person supporting method |
KR20090036183A (en) * | 2007-10-09 | 2009-04-14 | 슬림디스크 주식회사 | The method and divice which tell the recognized document image by camera sensor |
KR20090105531A (en) * | 2008-04-03 | 2009-10-07 | 슬림디스크 주식회사 | The method and divice which tell the recognized document image by camera sensor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160018889A (en) * | 2014-08-07 | 2016-02-18 | 경북대학교 산학협력단 | Voice guide device for braille block and method for recognition of braille block |
KR101636235B1 (en) * | 2014-08-07 | 2016-07-06 | 경북대학교 산학협력단 | Voice guide device for braille block and method for recognition of braille block |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108446697B (en) | Image processing method, electronic device and storage medium | |
CN107251045B (en) | Object recognition apparatus, object recognition method, and computer-readable storage medium | |
CN116108397B (en) | Electric power field operation violation identification method integrating multi-mode data analysis | |
KR101727137B1 (en) | Method and apparatus for extracting text area, and automatic recognition system of number plate using the same | |
EP2747029B1 (en) | Image processing device, image processing method, control program, and recording medium | |
US11417129B2 (en) | Object identification image device, method, and computer program product | |
Chakraborty et al. | Bangladeshi road sign detection based on YCbCr color model and DtBs vector | |
JP2012042410A (en) | Weather radar observation information providing system and weather radar observation information providing method | |
CN112036169B (en) | Event recognition model optimization method, device, equipment and readable storage medium | |
KR101257438B1 (en) | System for guiding a indoor waking-path of situation-based using a color-code and method thereof | |
US20140169628A1 (en) | Method and Device for Detecting the Gait of a Pedestrian for a Portable Terminal | |
KR20140022197A (en) | Lane detection method and lane departure warning system using same | |
WO2007033228A3 (en) | Reducing false positives for automatic computerized detection of objects | |
CN112035668B (en) | Event main body recognition model optimization method, device, equipment and readable storage medium | |
CN111126112A (en) | Candidate region determination method and device | |
CN106897665B (en) | Object identification method and system applied to intelligent robot | |
Ko et al. | Situation-based indoor wayfinding system for the visually impaired | |
KR20140138486A (en) | Apparatus and method for recognizing gender | |
Deniz et al. | A vision-based localization algorithm for an indoor navigation app | |
KR102041987B1 (en) | An apparatus and method for recognizing an object based on a single inference multiple label generation | |
CN116110066A (en) | Information extraction method, device and equipment of bill text and storage medium | |
US12062241B2 (en) | Lane recognition device and method based on LIDAR for vehicle | |
KR20140112869A (en) | Apparatus and method for recognizing character | |
KR20110032591A (en) | Method and robot for recognizing buttons of elevator | |
CN107622256A (en) | Intelligent album system based on facial recognition techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160418 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180416 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20190410 Year of fee payment: 7 |