[고든 정의 TECH+] 원하는 곳에 착륙하는 로봇 낙하산
수정 2016-02-19 23:51
입력 2016-02-19 23:51
머신러닝(기계학습)은 이미 우리가 모르는 사이 우리 일상생활에 깊게 들어와 있습니다. 구글은 이미 몇 년 전부터 자신들이 제공하는 서비스에 대부분 머신러닝을 적용하고 있습니다. 예를 들어 원숭이라고 사진을 검색하면 사진 정보에 원숭이가 없더라도 원숭이가 포함된 것으로 보이는 사진을 모두 보여주는 것이죠.
인간은 고양이의 사진을 보고 쉽게 고양이라고 판단할 수 있지만, 컴퓨터는 이런 추상적인 사고가 어렵습니다. 하지만 머신러닝, 그리고 한 단계 더 들어간 딥러닝(Deep learning) 덕분에 이제는 이미지를 보고 단순 분류는 물론 여러 가지 정보를 스스로 습득하는 단계에까지 이르렀습니다.
이미지 인식 기술은 단순히 사진 검색에서만 사용되는 것이 아닙니다. 최근 미 육군은 물자 공수를 위해서 ‘합동 정밀 공수 시스템 ’(Joint Precision Airdrop System, JPADS)을 개발하고 있습니다. 이 시스템은 한 마디로 눈으로 보고 알아서 착륙하는 로봇 낙하산 시스템입니다.
낙하산을 이용한 물자 수송은 역사가 오래되었지만, 여전히 한 가지 중대한 문제점을 가지고 있습니다. 그것은 물자가 원하지 않은 위치에 착륙하는 것이죠. 단순히 적의 손의 넘어가는 것만이 문제가 아닙니다. 본래대로라면 착륙하지 말아야 할 강이나 호수, 경사 지형은 물론이고 심지어 주택이나 건물 등에 착륙해 피해가 발생할 수 있습니다.
이 문제를 극복하기 위해 최신 공수 시스템은 GPS를 통해 낙하산의 착륙 위치를 유도합니다. 하지만 최근에는 GPS 신호를 방해하는 새로운 장치가 등장해 미 육군은 새로운 방법을 도입하려는 것입니다. 그것은 제목처럼 눈으로 보고 원하는 곳에 착륙하는 로봇 낙하산입니다.
드레이퍼 연구소(Draper laboratory)를 비롯한 여러 기업이 개발한 새로운 내비게이션 시스템은 카메라로 지형을 파악해서 정확한 착륙 위치를 스스로 찾습니다. 드레이퍼 연구소가 개발한 ‘로스트 로봇’(Lost Robot) 소프트웨어는 사전에 찍은 위성 사진과 비교해서 지정된 착륙 위치로 낙하산을 유도하기 때문이죠. 따라서 GPS 재밍이 있는 상황에서도 원하는 위치에 공수할 수 있습니다.
다만, 낙하산 시스템이라 정확도는 아주 높지 않아서 2,000파운드(약 900kg)의 경우 150m 오차가 발생하고 1만 파운드(약 4.5t) 화물의 경우 250m의 오차가 발생할 수 있다고 합니다. 물론 폭탄을 유도하는 것이 아니라 물자를 대량으로 공수하는 경우 이 정도 오차는 큰 문제가 되지는 않습니다.
현재 미 육군은 이 시스템이 더 다양한 용도로 사용될 수 있다고 보고 있습니다. 예를 들어 앞으로 스마트 폭탄은 레이저나 GPS 유도가 아니라 카메라로 목표를 인식해 공격할 수 있습니다. 이때 민간인 피해가 우려되는 지점은 회피하고 적이 이동했다면 쫓아가서 공격하는 능력까지 개발할 수 있을지 모릅니다.
물론 이미지 기반 인식 시스템에도 한계는 있습니다. 눈 덮인 설원이나 혹은 끝없이 같은 지형이 펼쳐진 사막에 착륙해야 하는 경우, 그리고 안개나 구름으로 지표를 도저히 관측하기 어려운 경우라면 여전히 GPS가 더 유용한 도구입니다. 따라서 현재 개발되는 시스템은 이미지 기반은 물론 GPS도 같이 활용해 정확도를 높이게 됩니다.
이미지 인식 기술은 나날이 발전하고 있고 우리가 모르는 사이 이미 여러 영역에서 응용되고 있거나 응용될 날을 기다리고 있습니다. 일부에서는 로봇이 사람의 일자리를 빼앗지 않을까 우려하는 목소리도 있지만, 기술의 발전을 뒤로 돌리기는 어렵겠죠. 결국, 사람처럼 눈으로 보고 사물과 사람을 인지하는 로봇의 등장은 현실로 다가오고 있습니다.
사진=JPADS를 테스트 중인 미 육군(U.S. Army Photo)
고든 정 통신원 jjy0501@naver.com
에디터 추천 인기 기사
많이 본 뉴스