저희는 국민대학교 소프트웨어학부 학술동아리 KOSS 소속 팀 로코(RoKo)입니다. 컴퓨터 비전 분야에 대한 관심으로 모인 저희는 스터디를 통해 학습하고, 학습된 내용을 활용해보고 싶어 프로젝트를 시작했습니다. OpenCV를 이용하여 어떤 프로그램을 제작하면 좋을 지 생각하던 중, 시각 장애인이 보행에 어려움을 가지고 있다는 것을 인지하고 이를 개선하기 위한 프로그램 아이디어를 구상하였습니다.
시각 장애인의 삶의 질을 향상하기 위한 목표로 ‘시각 장애인을 위한 위치 인식 기반 경로 및 보행 보이스 안내 어플’ 애플리케이션을 개발했습니다. 주요 기능은 2가지로, Tmap 지도 API를 이용한 Navigation기능과 YOLO v4를 이용한 주변 사물 인식 및 안내입니다. 시각정보를 청각정보로 전달하기위해, TTS & STT 기능을 넣어서 음성 인식 및 텍스트 듣기를 제공합니다.
앱을 실행하면 사용자의 위치, 카메라, 음성 정보에 대한 권한 허용을 받고, 앱을 사용할 수 있다.
상단에는 출발지와 도착지를 입력받을 수 있는 edit text칸 두 개와 검색버튼, 출발지와 도착지를 서로 바꿀 수 있는 버튼이 위치해있고, 하단에는 음성안내 버튼과 자세한 정보 버튼이 제공된다.
지도 화면이 띄워지고, 사용자의 현재 위치를 지도 위에 마커로 표시한다.
출발지는 사용자의 현재위치로 자동 설정되며, 사용자가 원한다면 출발지를 새로 입력받아서 값 변경도 가능하다.
사용자가 도착지를 음성으로 입력할 수 있도록 음성 인식 버튼을 제공한다. Google 음성 인식 기능을 사용하여 사용자가 말한 내용을 인식하고 도착지 입력란에 자동으로 채운다.
검색 버튼을 클릭하면 출발지에서 도착지까지의 전체 경로를 지도에 표시한다. Tmap API를 활용하여 경로를 표시하고 안내한다. Detail 버튼을 누르면 전체 경로의 상세한 정보를 나타낸다. 또한 시각 장애인을 위한 음성 서비스가 제공되며, 실시간 위치 인식을 통해 이동 경로를 안내한다.
자세한 정보 버튼을 클릭하면 경로의 상세 정보가 표시되며, 음성으로 읽어주는 길 안내 음성 안내가 시작된다. TTS 기능을 사용하여 경로 상세 정보를 음성으로 제공한다.
시각 장애인이 보행 중에 위험한 사물이나 장애물을 감지하기 위해 객체 인식 기능이 구현되어있다. YOLO v4를 사용하여 사람, 자동차, 강아지, 오토바이, 자전거, 신호등 등 다양한 객체를 인식하고 해당 객체와의 거리를 제공한다. 객체 인식 결과를 음성으로 안내하여 시각 장애인의 안전한 보행을 지원한다.
모바일 앱에서 실시간 카메라 프리뷰를 가져와 실시간으로 이미지를 캡처하고 Firebase Storage에 업로드한다. 파이썬을 사용하여 이미지에서 객체를 인식하고 결과를 Firebase Realtime Database에 저장한다. 앱은 Firebase를 통해 실시간 객체 인식 결과를 받아와 사용자에게 제공한다.
최건웅20 💻 |
김민주 💻 |
김은지 💻 |
남궁희 💻 |
한이연 💻 |