본문으로 이동

로봇공학

위키백과, 우리 모두의 백과사전.
1990년 당시 초기 산업용 로봇 중 하나인 PUMA(Programmable Universal Machine for Assembly)

로봇공학 또는 로보틱스(robotics)는 로봇의 설계, 건설, 운영 및 사용에 관한 학제간 연구이자 실무이다.[1] 로봇 공학자(roboticist)는 로봇공학을 전문으로 하는 사람을 말한다.[2]

기계공학에서 로봇공학은 로봇의 물리적 구조를 설계하고 제작하는 일을 다루는 반면, 컴퓨터 과학에서의 로봇공학은 로봇 자동화 알고리즘에 집중한다. 로봇공학에 기여하는 다른 분야로는 전기공학, 제어공학, 소프트웨어 공학, 정보공학, 전자, 통신공학, 컴퓨터 공학, 기전공학재료공학 등이 있다.

대부분의 로봇공학의 목표는 인간을 도울 수 있는 기계를 설계하는 것이다. 많은 로봇이 불안정한 유적지에서 생존자를 찾거나 우주, 광산, 난파선 탐사와 같이 인간에게 위험한 작업을 수행하도록 제작된다. 다른 로봇들은 조립, 청소, 모니터링, 운송과 같이 지루하고 반복적이거나 불쾌한 작업에서 인간을 대체한다. 오늘날 로봇공학은 급격히 성장하는 분야이다. 기술이 계속 발전함에 따라 새로운 로봇을 연구, 설계 및 제작하는 것은 다양한 실용적 목적에 기여하고 있다.

설계

[편집]

로봇공학은 보통 네 가지 측면의 설계 작업을 결합하여 로봇을 만든다.

로봇 손
전기 회로
  1. 동력원: 잠재적인 에너지원으로는 유선 전기, 전지휘발유 등이 있다.
  2. 기계적 구성: 주어진 환경 범위 내에서 기능을 수행하기 위한 물리적 형태나 형태의 조합이 설계된다. 여기에는 바퀴, 무한궤도 또는 유압식 사지가 포함될 수 있다. 더 추상적으로는 종이접기에서 영감을 얻은 로봇 형태가 극한 환경에서 감지하고 분석하도록 설계되기도 한다.[3]
  3. 제어 시스템: 소프트웨어를 실행하고, 모터의 움직임을 조절하며, 센서(예: 카메라, 마이크, 네트워크 신호, 전력 수준, 압력 및 온도)를 읽기 위해 다이오드트랜지스터와 같은 부품을 활용한 전기 회로가 사용된다.
  4. 소프트웨어: 로봇이 언제 또는 어떻게 무언가를 할지 결정하는 것은 프로그램을 통해서 이루어진다. 로봇 프로그램은 원격 제어, 인공지능(AI) 또는 이 둘의 혼합 방식으로 실행될 수 있다. 원격 제어 프로그래밍이 된 로봇은 제어 소스로부터 신호를 받을 때만 수행하는 기존 명령 집합을 가지고 있으며, 이는 본질적으로 자동화의 한 형태이다. 반면 AI 로봇은 제어 소스 없이 작동하며 프로그래밍을 사용하여 다양한 자극에 대한 반응을 결정할 수 있다.[4]

동력원

[편집]
클린룸에서 태양광 패널을 펼친 인사이트 착륙선

로봇의 동력원으로 다양한 종류의 배터리가 사용될 수 있다. 대부분은 안전하고 보관 수명이 비교적 긴 납축전지를 사용하지만, 이는 부피가 훨씬 작고 훨씬 비싼 은-카드뮴 배터리에 비해 상당히 무겁다. 배터리로 작동하는 로봇을 설계할 때는 안전성, 사이클 수명, 무게와 같은 요소를 고려해야 한다. 종종 일종의 내연기관인 발전기도 사용될 수 있다. 그러나 이러한 설계는 기계적으로 복잡하고 연료가 필요하며 열 방출이 필요하고 상대적으로 무겁다. 로봇을 전원 공급 장치에 연결하는 테더(tether)를 사용하면 전원 공급 장치를 로봇에서 완전히 제거할 수 있다. 이는 모든 발전 및 저장 부품을 다른 곳으로 옮김으로써 무게와 공간을 절약할 수 있다는 장점이 있다. 하지만 로봇에 케이블이 계속 연결되어 있어 관리가 어려울 수 있다는 단점이 있다.[5] 잠재적인 동력원으로는 다음과 같은 것들이 있다.

기계적 구성

[편집]
공기 근육으로 구동되는 로봇 다리

액추에이터저장된 에너지를 움직임으로 전환하는 부품으로, 로봇의 "근육"에 해당한다.[6] 가장 인기 있는 액추에이터는 바퀴나 기어를 회전시키는 전동기와 공장의 산업용 로봇을 제어하는 리니어 액추에이터이다. 최근에는 전기, 화학 물질 또는 압축 공기로 구동되는 대안적인 유형의 액추에이터에서도 진전이 있다.

대부분의 로봇은 전동기를 사용하며, 휴대용 로봇에는 주로 브러시 및 브러시리스 DC 모터를, 산업용 로봇과 수치 제어 기계에는 AC 모터를 사용한다. 이러한 모터는 부하가 가볍고 회전 운동이 지배적인 시스템에서 주로 선호된다.

다양한 유형의 리니어 액추에이터는 회전 대신 안팎으로 움직이며, 특히 산업용 로봇과 같이 매우 큰 힘이 필요할 때 방향 전환이 빠르다. 이들은 일반적으로 압축 공기(공압 액추에이터)나 오일(유압 액추에이터)로 구동된다. 리니어 액추에이터는 전기 로 구동될 수도 있는데, 보통 모터와 리드스크류로 구성된다. 또 다른 일반적인 유형은 자동차의 랙 앤 피니언과 같은 기계적 리니어 액추에이터이다.

직렬 탄성 액추에이터(Series elastic actuation, SEA)는 강력한 힘 제어를 위해 모터 액추에이터와 부하 사이에 의도적인 탄성을 도입하는 방식이다. 결과적으로 반사 관성이 낮아지기 때문에 SEA는 로봇이 환경(예: 인간 또는 작업물)과 상호 작용하거나 충돌할 때 안전성을 높여준다.[7] 또한 에너지 효율과 충격 흡수(기계적 필터링)를 제공하는 동시에 변속기 및 기타 기계 부품의 과도한 마모를 줄여준다. 이 접근 방식은 다양한 로봇, 특히 첨단 제조 로봇[8]과 걷는 휴머노이드 로봇에 성공적으로 채택되었다.[9][10] SEA의 제어기 설계는 비정형 환경과의 상호 작용 안전성을 보장하기 때문에 주로 수동성 프레임워크 내에서 수행된다.[11] 뛰어난 안정성과 견고함에도 불구하고, 이 프레임워크는 제어기에 부과되는 엄격한 제한으로 인해 성능이 저하될 수 있다는 단점이 있다.[12] 최근의 한 연구는 가장 일반적인 임피던스 제어 아키텍처 중 하나인 속도원 SEA에 대한 필요충분 수동성 조건을 도출했다.[13] 이 작업은 SEA 체계에서 처음으로 비보수적 수동성 경계를 유도하여 더 넓은 범위의 제어 이득 선택을 가능하게 했다는 점에서 특히 중요하다.

공기 근육으로도 알려진 공압 인공 근육은 공기가 내부로 강제 유입될 때 팽창(보통 최대 42%)하는 특수 튜브이다. 이들은 일부 로봇 응용 분야에서 사용된다.[14][15][16]

형상 기억 합금(shape memory alloy)으로도 알려진 머슬 와이어(Muscle wire)는 전기가 가해지면 수축(5% 미만)하는 재료이다. 이들은 일부 소형 로봇 응용 분야에 사용되어 왔다.[17][18]

전기활성 고분자(EAPs 또는 EPAMs)는 전기에 의해 실질적으로 수축(최대 380% 활성화 변형)할 수 있는 플라스틱 재질로, 휴머노이드 로봇의 안면 근육과 팔에 사용되어 왔으며,[19] 로봇이 뜨고,[20] 날고, 수영하거나 걷는 것을 가능하게 한다.[21]

DC 모터에 대한 최근의 대안은 압전 모터 또는 초음파 모터이다. 이들은 근본적으로 다른 원리로 작동하며, 초당 수천 번 진동하는 작은 압전 세라믹 요소가 선형 또는 회전 운동을 일으킨다. 작동 메커니즘은 다양하다. 한 유형은 압전 요소의 진동을 사용하여 모터를 원형이나 직선으로 단계적으로 움직이게 한다.[22] 다른 유형은 압전 요소를 사용하여 너트를 진동시키거나 나사를 구동한다. 이 모터들의 장점은 나노미터 해상도, 속도, 그리고 크기 대비 가용한 힘이다.[23] 이 모터들은 이미 상업적으로 판매되고 있으며 일부 로봇에 사용되고 있다.[24][25]

탄성 탄소 나노튜브는 초기 실험 개발 단계에 있는 유망한 인공 근육 기술이다. 탄소 나노튜브의 결함이 없는 특성 덕분에 이 필라멘트들은 수 퍼센트 정도 탄성적으로 변형될 수 있으며, 금속 나노튜브의 경우 약 10 J/cm3의 에너지 저장 수준을 가진다. 인간의 이두근은 직경 8 밀리미터 (38 in)의 이 재료 와이어로 대체될 수 있다. 이러한 소형 "근육"은 미래의 로봇이 인간보다 더 빨리 달리고 더 높이 점프할 수 있게 해줄 것이다.[26]

이동성

[편집]
나고야시 로봇 박물관에 있는 세그웨이 PT

단순함을 위해 대부분의 이동 로봇은 네 개의 바퀴나 여러 개의 무한궤도를 가진다. 일부 연구자들은 바퀴가 하나나 두 개뿐인 더 복잡한 바퀴형 로봇을 만들려고 시도했다. 이들은 효율성이 높고 부품 수가 적을 뿐만 아니라, 네 바퀴 로봇이 갈 수 없는 좁은 장소에서도 로봇이 주행할 수 있다는 장점이 있다.

이륜 균형 로봇은 일반적으로 자이로스코프를 사용하여 로봇이 얼마나 기울어지는지 감지하고, 역진자의 역학에 기초하여 초당 수백 번씩 넘어지지 않도록 바퀴를 같은 방향으로 비례하여 구동한다.[27] 많은 다양한 균형 로봇이 설계되었다.[28] 세그웨이는 보통 로봇으로 생각되지 않지만, 로봇의 구성 요소로 사용될 수 있으며, 세그웨이는 이를 로봇 이동 플랫폼이라 부른다. 이러한 사용의 한 예로 세그웨이에 장착된 NASA로보넛이 있다.[29]

외륜 균형 로봇은 이륜 균형 로봇의 확장판으로, 둥근 공을 유일한 바퀴로 사용하여 모든 2D 방향으로 이동할 수 있다. 최근 카네기 멜런 대학교의 "볼봇"(Ballbot)이나 도호쿠 가쿠인 대학의 "BallIP"와 같은 여러 외륜 균형 로봇이 설계되었다.[30] 길고 얇은 형태와 좁은 공간에서의 기동 능력 덕분에 사람들이 있는 환경에서 다른 로봇보다 더 잘 작동할 가능성이 있다.[31]

구체형 공 안에 완전히 들어 있는 로봇을 만들기 위한 여러 시도가 있었는데, 공 안에서 무게추를 돌리거나[32][33] 구체의 외각을 회전시키는 방식 등이 있다.[34][35] 이들은 구체형 로봇(spherical robot), 오브 봇(orb bot)[36] 또는 볼봇이라고 불린다.[37]

네 바퀴 대신 여섯 바퀴를 사용하면 바위투성이의 흙이나 풀밭과 같은 실외 지형에서 더 나은 견인력이나 접지력을 얻을 수 있다.

무한궤도는 6륜 로봇보다 더 큰 견인력을 제공한다. 궤도형 바퀴는 수백 개의 바퀴로 만들어진 것처럼 작동하므로, 매우 거친 지형을 주행해야 하는 실외 오프로드 로봇에 매우 흔하게 쓰인다. 그러나 카페트나 매끄러운 바닥과 같은 실내에서는 사용하기 어렵다. 예로는 NASA의 도시형 로봇 "Urbie"가 있다.[38]

2012년 당시 거미 로봇 맨티스(Mantis)

보행은 해결하기 어렵고 역동적인 문제이다. 두 다리로 안정적으로 걸을 수 있는 여러 로봇이 만들어졌지만, 아직 인간만큼 견고한 로봇은 만들어지지 않았다. 2008년 텍사스 A&M 대학교 기계공학과에 설립된 AMBER 랩과 같이 인간에게 영감을 얻은 보행에 대한 많은 연구가 진행되어 왔다.[39] 보행 로봇은 울퉁불퉁한 지형에 사용될 수 있어 다른 이동 방법보다 더 나은 가동성과 에너지 효율을 제공할 수 있다. 일반적으로 두 다리 로봇은 평평한 바닥에서 잘 걸을 수 있고 가끔 계단을 오를 수도 있다. 바위가 많고 불규칙한 지형을 걸을 수 있는 로봇은 아직 없다. 시도된 방법 중 일부는 다음과 같다.

ZMP(제로 모먼트 포인트)는 혼다ASIMO와 같은 로봇에서 사용하는 알고리즘이다. 로봇의 온보드 컴퓨터는 전체 관성력(지구의 중력과 보행 시 가속 및 감속의 조합)이 바닥 반작용력(로봇의 발을 밀어내는 바닥의 힘)과 정확히 반대가 되도록 유지하려고 노력한다. 이렇게 하면 두 힘이 상쇄되어 로봇을 회전시키고 넘어지게 만드는 모멘트가 남지 않게 된다.[40] 관찰자들은 이것이 인간이 걷는 방식과 정확히 일치하지는 않는다고 언급하며, 일부는 ASIMO가 마치 변기가 급한 것처럼 걷는다고 지적하기도 했다.[41][42][43] ASIMO의 보행 알고리즘은 정적이지 않고 일부 동적 균형이 사용되지만, 걷기 위해서는 매끄러운 표면이 필요하다.

1980년대 마크 레이버트MIT 레그 래버러토리에서 제작한 여러 로봇은 매우 역동적인 보행을 성공적으로 시연했다. 처음에 다리가 하나뿐이고 발이 매우 작은 로봇은 단순히 깡충깡충 뜀으로써 수직을 유지할 수 있었다. 이 움직임은 사람이 스카이콩콩을 타는 것과 같다. 로봇이 한쪽으로 기울어지면, 넘어지지 않으려고 그 방향으로 살짝 점프한다.[44] 곧 이 알고리즘은 두 다리와 네 다리로 일반화되었다. 이족 보행 로봇은 달리기와 심지어 공중제비를 넘는 모습까지 보여주었다.[45] 속보, 달리기, 측대보 및 경쾌한 걸음을 할 수 있는 4족 보행 로봇도 시연되었다.[46] 이 로봇들의 전체 목록은 MIT 레그 랩 로봇 페이지에서 확인할 수 있다.[47]

로봇이 걷는 더 진보된 방법은 동적 균형 알고리즘을 사용하는 것으로, 이는 로봇의 움직임을 지속적으로 모니터링하고 안정성을 유지하기 위해 발을 배치하므로 ZMP 기술보다 더 견고할 잠재력이 있다.[48] 이 기술은 최근 애니봇(Anybots)의 덱스터(Dexter) 로봇에 의해 시연되었는데,[49] 이 로봇은 매우 안정적이어서 점프까지 할 수 있다.[50] 다른 예로는 TU 델프트의 플레임(Flame)이 있다.

아마도 가장 유망한 접근 방식은 수동 동역학을 사용하는 것인데, 여기에는 더 높은 에너지 효율을 위해 흔들리는 팔다리의 운동량을 이용한다. 동력이 전혀 없는 휴머노이드 메커니즘이 완만한 경사를 따라 걸어 내려갈 수 있으며, 추진력을 위해 중력만을 사용한다는 것이 입증되었다. 이 기술을 사용하면 로봇은 평평한 표면을 따라 걷기 위해 아주 적은 양의 모터 동력만 공급하면 되고, 언덕을 오르기 위해 조금 더 많은 동력을 공급하면 된다. 이 기술은 보행 로봇을 ASIMO와 같은 ZMP 보행기보다 최소 10배 이상 효율적으로 만들 것으로 기대된다.[51][52]

현대의 여객기는 본질적으로 이를 관리하는 두 명의 인간이 탑승한 비행 로봇이다. 오토파일럿은 이륙, 정상 비행, 심지어 착륙을 포함한 여정의 각 단계에서 비행기를 제어할 수 있다.[53] 다른 비행 로봇은 사람이 타지 않는 무인 항공기(UAV)로 알려져 있다. 이들은 인간 조종사가 탑승하지 않아 더 작고 가벼울 수 있으며, 군사 감시 임무를 위해 위험한 지역으로 비행할 수 있다. 일부는 명령에 따라 목표물을 사격할 수도 있다. 인간의 명령 없이도 자동으로 목표물을 사격할 수 있는 UAV도 개발되고 있다. 다른 비행 로봇으로는 순항 미사일, 엔토몹터(Entomopter), Seiko Epson Micro flying robot 등이 있다. 에어 펭귄, 에어 레이, 에어 젤리와 같은 로봇은 공기보다 가벼운 몸체를 가지고 있으며, 노(paddle)로 추진되고 소나에 의해 유도된다.

양력과 추진력을 발생시키는 날개짓형 BFR

생체모방 비행 로봇(BFRs)은 비행 포유류, 조류 또는 곤충에서 영감을 얻는다. BFR은 양력과 추진력을 발생시키는 날개짓 날개를 가질 수도 있고, 프로펠러로 구동될 수도 있다. 날개짓 날개를 가진 BFR은 프로펠러 구동 BFR에 비해 스트로크 효율이 높고 기동성이 뛰어나며 에너지 소비가 적다.[54] 포유류와 조류에서 영감을 받은 BFR은 유사한 비행 특성과 설계 고려 사항을 공유한다. 예를 들어, 포유류와 조류 영감 BFR 모두 날개 가장자리와 날개 끝의 강성을 높여 가장자리 펄럭임압력 유도 날개 끝 소용돌이를 최소화한다. 포유류와 곤충 영감 BFR은 충격에 강할 수 있어 복잡한 환경에서 유용하다.

포유류 영감 BFR은 일반적으로 박쥐에서 영감을 얻지만, 날다람쥐도 프로토타입에 영감을 주었다.[55] 박쥐 영감 BFR의 예로는 Bat Bot[56]과 DALER가 있다.[57] 포유류 영감 BFR은 멀티모달로 설계될 수 있어 비행과 지상 이동이 모두 가능하다. 착륙 시의 충격을 줄이기 위해 날개를 따라 충격 흡수 장치를 구현할 수 있다.[57] 또는 BFR이 기수를 들고 받는 항력의 양을 늘릴 수도 있다.[55] 항력을 높임으로써 BFR은 속도를 줄이고 지면 착륙 시의 충격을 최소화한다. 다양한 지상 보행 패턴도 구현될 수 있다.[55]

잠자리에서 영감을 얻은 BFR

조류 영감 BFR은 맹금류, 갈매기 및 그 사이의 모든 것에서 영감을 얻을 수 있다. 조류 영감 BFR은 깃털을 달아 프로토타입이 실속하기 전에 작동할 수 있는 받음각 범위를 늘릴 수 있다.[58] 조류 영감 BFR의 날개는 면내 변형을 허용하며, 비행 보행에 따라 비행 효율을 극대화하도록 면내 날개 변형을 조정할 수 있다.[58] 맹금류 영감 BFR의 예로는 사바스타노(Savastano) 등이 만든 프로토타입이 있다.[59] 이 프로토타입은 완전히 변형 가능한 날개짓 날개를 가지고 있으며, 포물선 상승, 가파른 하강 및 빠른 회복을 수행하면서 최대 0.8kg의 화물을 실을 수 있다. 그랜트(Grant) 등이 만든 갈매기 영감 프로토타입은 갈매기의 팔꿈치와 손목 회전을 정확하게 모방하며, 팔꿈치와 손목의 변형이 반대이면서 같을 때 양력 발생이 극대화된다는 것을 발견했다.[60]

곤충 영감 BFR은 일반적으로 딱정벌레나 잠자리에서 영감을 얻는다. 딱정벌레 영감 BFR의 예로는 판(Phan)과 박(Park)의 프로토타입이 있으며,[61] 잠자리 영감 BFR은 후(Hu) 등의 프로토타입이 있다.[62] 곤충 영감 BFR의 날개짓 주파수는 다른 BFR보다 훨씬 높은데, 이는 곤충 비행의 공학적 원리 때문이다.[63] 곤충 영감 BFR은 포유류나 조류 영감 BFR보다 훨씬 작아서 밀집된 환경에 더 적합하다.

화성에서 비행하는 엔토몹터의 가상도 (NASA)

생물학적으로 영감을 얻었지만 생물을 모방하려 하지는 않는 로봇 종류로는 엔토몹터(Entomopter)와 같은 창작물이 있다. DARPA, NASA, 미국 공군, 조지아 테크 연구소의 자금 지원을 받고 은밀한 지상 임무와 화성 저층 대기 비행을 위해 로버트 C. 마이클슨 교수가 특허를 낸 엔토몹터의 비행 추진 시스템은 박각시와 유사한 낮은 레이놀즈 수 날개를 사용하지만, 전통적이지 않은 "반대 x-날개 방식"으로 날개를 펄럭이며 코안다 효과를 바탕으로 양력을 강화하고 기체의 자세와 방향을 제어하기 위해 표면에 공기를 "불어넣는다". 추진 시스템에서 나오는 폐가스는 날개 표면의 공기역학을 촉진할 뿐만 아니라, 박쥐처럼 장애물 회피를 위한 초음파 방출을 생성하는 데에도 사용된다. 엔토몹터와 다른 생물학 영감 로봇들은 생물학적 시스템의 특징을 활용하지만, 기계적 아날로그를 만들려고 하지는 않는다.

두 대의 뱀 로봇. 왼쪽은 64개의 모터(세그먼트당 2자유도)를 가지고 있으며, 오른쪽은 10개를 가지고 있다.

여러 뱀 로봇이 성공적으로 개발되었다. 실제 뱀이 움직이는 방식을 모방한 이 로봇들은 매우 좁은 공간을 주행할 수 있어, 언젠가 무너진 건물에 갇힌 사람들을 찾는 데 사용될 수 있을 것이다.[64] 일본의 ACM-R5 뱀 로봇[65]은 지상과 물 위를 모두 주행할 수 있다.[66]

적은 수의 롤러스케이팅 로봇이 개발되었는데, 그 중 하나는 다중 모드 보행 및 스케이팅 장치이다. 이 로봇은 네 개의 다리와 동력이 없는 바퀴를 가지고 있어, 걷거나 구를 수 있다.[67] 또 다른 로봇인 플렌(Plen)은 미니어처 스케이트보드나 롤러스케이트를 사용하여 책상 위를 스케이트 타고 다닐 수 있다.[68]

등반 로봇 카푸친(Capuchin)

수직면을 오르는 능력을 갖춘 로봇을 개발하기 위해 여러 가지 접근 방식이 사용되었다. 한 가지 접근 방식은 돌출부가 있는 벽을 오르는 인간 등반가의 움직임을 모방하는 것으로, 질량 중심을 조정하고 각 사지를 차례로 움직여 지렛대 힘을 얻는다. 예로 캘리포니아 스탠퍼드 대학교의 루이샹 장(Ruixiang Zhang)이 제작한 카푸친(Capuchin)이 있다.[69] 또 다른 접근 방식은 수직 유리와 같은 매끄러운 표면을 달릴 수 있는 벽타기 게코 도마뱀의 특수 발바닥 방식을 사용한다. 이 방식의 예로는 Wallbot[70]과 Stickybot[71]이 있다. 중국의 과기일보(Technology Daily)는 2008년 11월 15일, 주하이시 신개념 항공기 유한회사의 리후이양(Li Hiu Yeung) 연구팀이 "Speedy Freelander"라는 이름의 생체 모방 게코 로봇을 성공적으로 개발했다고 보도했다. 리에 따르면, 이 게코 로봇은 다양한 건물 벽을 빠르게 오르내리고 지면과 벽의 균열을 통과하며 천장에 거꾸로 매달려 걸을 수 있다. 또한 매끄러운 유리, 거칠거나 끈적거리거나 먼지가 많은 벽뿐만 아니라 다양한 유형의 금속 재료 표면에도 적응할 수 있었다. 장애물을 자동으로 식별하고 피할 수도 있었다. 유연성과 속도는 실제 게코와 견줄 만했다. 세 번째 접근 방식은 기둥을 오르는 뱀의 움직임을 모방하는 것이다.[72]

로봇 물고기: iSplash-II

수영할 때 일부 물고기는 90% 이상의 추진 효율을 달성할 수 있는 것으로 계산된다.[73] 또한 그들은 인간이 만든 어떤 보트잠수함보다 훨씬 더 잘 가속하고 기동할 수 있으며 소음과 물의 교란도 적게 발생시킨다. 따라서 수중 로봇을 연구하는 많은 연구자들은 이러한 유형의 이동 방식을 복제하고 싶어 한다.[74] 주목할 만한 예로는 Robotic Fish G9와 참치형 운동을 분석하고 수학적으로 모델링하기 위해 제작된 Robot Tuna가 있다.[75][76] 아쿠아 펭귄(Aqua Penguin)은 펭귄의 유선형 형태와 앞 "지느러미"에 의한 추진력을 모방한다.[77] 아쿠아 레이와 아쿠아 젤리는 각각 가오리와 해파리의 이동 방식을 모방한다. 2014년에 개발된 iSplash-II는 평균 최대 속도(체장/초 단위로 측정)와 최고 속도가 유지되는 지속 시간 측면에서 실제 전갱이형 물고기를 능가한 최초의 로봇 물고기이다.[78] 이 모델은 11.6BL/s(즉, 3.7m/s)의 수영 속도를 달성했다.[79] 첫 번째 모델인 iSplash-I(2014)은 전신 길이 전갱이형 수영 동작을 적용한 최초의 로봇 플랫폼으로, 이는 후방으로 제한된 파형의 전통적인 접근 방식보다 수영 속도를 27% 증가시키는 것으로 나타났다.[80]

자율 항해 로봇 Vaimos

해수면에서 측정을 수행하기 위한 돛단배 로봇도 개발되었다. 전형적인 돛단배 로봇은 Vaimos이다.[81] 돛단배 로봇의 추진력은 바람을 이용하기 때문에 배터리 에너지는 컴퓨터, 통신 및 액추에이터(타와 돛을 조정하기 위한 것)에만 사용된다. 로봇에 태양광 패널이 장착되어 있다면 이론적으로 영원히 항해할 수 있다. 돛단배 로봇의 두 가지 주요 대회는 마이크로트랜젯 챌린지(The Microtransat Challenge)와 세계 로봇 항해 선수권 대회(World Robotic Sailing Championship)이다.

조작기

[편집]
KUKA 산업용 로봇주물 공장에서 작동 중이다
로드니 브룩스가 개발한 현대적이고 다재다능한 산업용 로봇 백스터(Baxter)

로봇 조작에 대한 정의는 매트 메이슨(Matt Mason)에 의해 "선택적 접촉을 통한 [로봇의] 환경 제어"로 설명되었다.[82]

로봇은 물체를 조작해야 한다. 즉, 집어 올리고, 수정하고, 파괴하고, 옮기거나 어떤 효과를 주어야 한다. 따라서 효과를 내기 위한 로봇 팔의 기능적 끝부분(손이나 도구 등)은 종종 말단 장치(end effectors)라고 불리며,[83] "팔"은 조작기(manipulator)라고 불린다.[84] 대부분의 로봇 팔은 교체 가능한 말단 장치를 가지고 있어 각각 작은 범위의 작업을 수행할 수 있다. 일부는 교체할 수 없는 고정된 조작기를 가지고 있고, 휴머노이드 손과 같이 매우 범용적인 조작기를 가진 경우도 있다.[85]

가장 흔한 유형의 말단 장치 중 하나는 "그리퍼"이다. 가장 단순한 형태는 물체를 집거나 놓기 위해 열고 닫을 수 있는 두 개의 손가락으로 구성된다. 손가락은 예를 들어 금속 와이어가 통과하는 체인으로 만들어질 수 있다.[86] 인간의 손과 더 비슷하고 비슷하게 작동하는 손으로는 섀도우 핸드(Shadow Hand)와 로보넛 핸드가 있다.[87] 중간 수준의 복잡성을 가진 손으로는 델프트 핸드가 있다.[88][89] 기계적 그리퍼는 마찰형과 감싸는 죠(jaw)형을 포함한 다양한 유형이 있다. 마찰형 죠는 마찰력을 사용하여 물체를 제자리에 고정하기 위해 그리퍼의 모든 힘을 사용한다. 감싸는 죠는 마찰력을 적게 사용하면서 물체를 감싸서 제자리에 둔다.

진공 발생기로 구동되는 흡착식 말단 장치는 파지 표면이 흡착을 보장할 만큼 충분히 매끄럽다면 매우 큰 부하를 유지할 수 있는 단순한 장치이다. 전자 부품용 또는 자동차 앞유리와 같은 대형 물체용 픽앤플레이스 로봇은 종종 매우 단순한 진공 말단 장치를 사용한다. 흡착은 산업에서 매우 많이 사용되는 유형의 말단 장치인데, 부분적으로는 부드러운 흡착식 말단 장치의 자연스러운 유연성 덕분에 불완전한 로봇 지각 상황에서도 로봇이 더 견고하게 작동할 수 있기 때문이다. 예로 물병의 위치를 추정하지만 1cm의 오차가 있는 로봇 비전 시스템의 경우를 생각해보자. 단단한 기계적 그리퍼는 물병을 뚫을 수도 있지만, 부드러운 흡착식 말단 장치는 약간 구부러져 물병 표면의 형태에 맞게 적응할 수 있다.

일부 고급 로봇은 섀도우 핸드, MANUS,[90] 그리고 슝크(Schunk) 핸드와 같은 완전한 휴머노이드 손을 사용하기 시작했다. 이들은 최대 20 자유도와 수백 개의 촉각 센서를 갖춘 강력한 로봇 손재주 지능을 가지고 있다.[91]

제어 시스템

[편집]
실험용 평면 로봇 팔과 센서 기반 개방형 아키텍처 로봇 제어기

로봇의 기계적 구조는 작업을 수행하기 위해 제어되어야 한다.[92] 로봇의 제어는 지각(기계 지각), 처리, 행동의 세 가지 뚜렷한 단계를 포함한다.[93] 센서는 환경이나 로봇 자체에 대한 정보(예: 관절의 위치나 말단 장치의 위치)를 제공한다. 이 정보는 저장되거나 전송되도록 처리되고, 필요한 협응 운동이나 힘 작용을 달성하기 위해 기계 구조를 움직이는 액추에이터(전동기)에 대한 적절한 신호를 계산하는 데 사용된다.

처리 단계의 복잡성은 다양할 수 있다. 반응형 수준에서는 원시 센서 정보를 액추에이터 명령으로 직접 변환할 수 있다. 센서 융합과 내부 모델은 먼저 노이즈가 섞인 센서 데이터로부터 관심 있는 매개변수(예: 로봇 그리퍼의 위치)를 추정하는 데 사용될 수 있다. 근접 센서로 물체가 감지될 때까지 특정 방향으로 그리퍼를 움직이는 것과 같은 즉각적인 작업이 때때로 이러한 추정치로부터 유추된다. 제어이론의 기술은 일반적으로 고차원 작업을 액추에이터를 구동하는 개별 명령으로 변환하는 데 사용되며, 이때 기계 구조의 운동학적 및 동역학적 모델을 가장 자주 사용한다.[92][93][94]

더 긴 시간 척도나 더 정교한 작업의 경우, 로봇은 "인지" 모델을 구축하고 추론해야 할 수도 있다. 인지 모델은 로봇, 세상, 그리고 이 둘이 상호 작용하는 방식을 표현하려고 시도한다. 패턴 인식과 컴퓨터 비전을 사용하여 물체를 추적할 수 있다.[92] 지도화 기술은 세상의 지도를 구축하는 데 사용될 수 있다. 마지막으로, 모션 플래닝과 다른 AI 기술이 어떻게 행동할지 결정하는 데 사용될 수 있다. 예를 들어 플래너는 장애물에 부딪히거나 넘어지지 않고 작업을 완수하는 방법을 찾아낼 수 있다.

현대의 상업용 로봇 제어 시스템은 매우 복잡하며, 여러 센서와 이펙터를 통합하고, 상호 작용하는 많은 자유도(DOF)를 가지며, 운영자 인터페이스, 프로그래밍 도구 및 실시간 기능을 필요로 한다.[93] 이들은 종종 더 넓은 통신 네트워크에 연결되어 있으며, 많은 경우 사물인터넷(IoT)이 가능하고 이동성이 있다.[95] 개방형 아키텍처, 계층화, 사용자 친화적이고 '지능적인' 센서 기반 상호 연결 로봇으로의 진전은 유연 제조 시스템(FMS)과 관련된 초기 개념에서 나타났다. 또한 전통적인 '폐쇄형' 로봇 제어 시스템의 개념을 넘어서도록 돕는 여러 '개방형' 또는 '혼합형' 참조 아키텍처가 제안되었다.[94] 개방형 아키텍처 제어기는 시스템 개발자, 최종 사용자 및 연구 과학자를 포함한 광범위한 로봇 사용자의 증가하는 요구를 더 잘 충족할 수 있으며, 인더스트리 4.0과 관련된 고급 로봇 개념을 전달하는 데 더 유리하다고 한다.[94] 말단 장치의 위치, 속도 및 힘 제어와 같은 로봇 제어기의 확립된 기능을 활용하는 것 외에도, 이들은 IoT 상호 연결과 적응 제어, 퍼지 제어인공 신경망 기반 제어를 포함한 더 정교한 센서 융합 및 제어 기술의 구현을 가능하게 한다.[94] 실시간으로 구현될 때, 이러한 기술은 제어 시스템이 환경 변화를 학습하고 적응하게 함으로써 미지의 또는 불확실한 환경에서 작동하는 로봇의 안정성과 성능을 잠재적으로 개선할 수 있다.[96] 로봇 제어기를 위한 참조 아키텍처의 여러 예가 있으며, 그로부터 개발된 실제 로봇 제어기의 성공적인 구현 예도 있다. 범용 참조 아키텍처와 관련 상호 연결된 개방형 아키텍처 로봇 및 제어기 구현의 한 예는 실시간으로 소설의 고급 지능형 제어 및 환경 매핑 방법의 프로토타입 구현을 포함하여 다수의 연구 개발 연구에 사용되었다.[96][97]

감지

[편집]

센서는 로봇이 환경의 특정 측정값이나 내부 구성 요소에 대한 정보를 받을 수 있게 한다. 이는 로봇이 작업을 수행하고 환경의 변화에 대응하여 적절한 반응을 계산하는 데 필수적이다. 이들은 다양한 형태의 측정에 사용되며, 안전이나 오작동에 대한 경고를 로봇에게 주고, 수행 중인 작업에 대한 실시간 정보를 제공한다.

현재의 로봇 팔의수는 인간의 손보다 훨씬 적은 촉각 정보를 받는다. 최근 연구에서는 인간 손가락 끝의 기계적 특성과 촉각 수용체를 모방한 촉각 센서 배열을 개발했다.[98][99] 이 센서 배열은 탄성 피부로 둘러싸인 전도성 유체로 채워진 단단한 코어로 구성된다. 전극은 단단한 코어의 표면에 장착되며 코어 내부의 임피던스 측정 장치에 연결된다. 인공 피부가 물체에 닿으면 전극 주위의 유체 경로가 변형되어 물체로부터 받는 힘을 나타내는 임피던스 변화를 생성한다. 연구자들은 이러한 인공 손가락 끝의 중요한 기능이 쥐고 있는 물체에 대한 로봇의 그립을 조절하는 것이 될 것으로 기대한다.

여러 유럽 국가와 이스라엘의 과학자들은 2009년에 스마트핸드(SmartHand)라는 의수를 개발했는데, 이는 실제 손처럼 기능하여 환자가 글을 쓰고, 키보드로 타이핑하고, 피아노를 치고, 다른 미세한 움직임을 수행할 수 있게 한다. 이 의수에는 환자가 손가락 끝에서 실제 감각을 느낄 수 있게 하는 센서가 있다.[100]

로봇공학에서 흔히 쓰이는 다른 형태의 감지 기술로는 라이다, 레이더, 소나 등이 있다.[72] 라이다는 레이저 광으로 타겟을 비추고 센서로 반사된 빛을 측정하여 타겟까지의 거리를 측정한다. 레이더는 전파를 사용하여 물체의 범위, 각도 또는 속도를 결정한다. 소나는 수면 위나 아래의 물체를 탐지하거나 통신, 항해하기 위해 소리의 전파를 사용한다.

컴퓨터 비전은 보는 기계를 위한 과학 및 기술이다. 과학 분야로서 컴퓨터 비전은 이미지로부터 정보를 추출하는 인공 시스템의 이론과 관련이 있다. 이미지 데이터는 비디오 시퀀스나 카메라의 뷰와 같은 많은 형태를 취할 수 있다. 대부분의 실용적인 컴퓨터 비전 응용 프로그램에서 컴퓨터는 특정 작업을 해결하도록 미리 프로그래밍되어 있지만, 기계 학습에 기반한 방법이 이제 점점 더 흔해지고 있다.

컴퓨터 비전 시스템은 일반적으로 가시광선이나 적외선 형태의 전자기 방사선을 탐지하는 이미지 센서에 의존한다. 센서는 고체물리학을 사용하여 설계된다. 빛이 표면에서 전파되고 반사되는 과정은 광학을 사용하여 설명된다. 정교한 이미지 센서는 이미지 형성 과정을 완벽하게 이해하기 위해 양자역학까지 필요로 한다. 로봇은 또한 환경의 깊이감을 더 잘 계산하기 위해 여러 개의 비전 센서를 장착할 수 있다. 인간의 눈처럼 로봇의 "눈"도 특정 관심 영역에 집중할 수 있어야 하며, 빛의 강도 변화에 적응할 수 있어야 한다.

컴퓨터 비전 내에는 다양한 복잡성 수준에서 생물학적 시스템의 처리 및 행동을 모방하도록 인공 시스템을 설계하는 하위 분야가 있다. 또한 컴퓨터 비전 내에서 개발된 학습 기반 방법 중 일부는 생물학적 배경을 가지고 있다.

소프트웨어

[편집]
휴머노이드 로봇TOPIO가 2009년 도쿄 IREX에서 탁구를 치고 있다.[101]

제어 시스템은 자율성 수준이 다양할 수 있다.

  1. 직접 상호 작용은 햅틱 기술이나 원격 조종 장치에 사용되며, 인간이 로봇의 움직임을 거의 완벽하게 제어한다.
  2. 운영자 보조 모드는 운영자가 중간에서 높은 수준의 작업을 명령하면 로봇이 자동으로 이를 달성하는 방법을 찾아낸다.[102]
  3. 자율 로봇은 장기간 인간의 상호 작용 없이 작동할 수 있다. 높은 수준의 자율성이 반드시 더 복잡한 인지 능력을 필요로 하는 것은 아니다. 예를 들어, 조립 공장의 로봇은 완전히 자율적이지만 정해진 패턴으로 작동한다.

또 다른 분류는 인간의 제어와 기계의 움직임 사이의 상호 작용을 고려한다.

  1. 원격 조종(Teleoperation): 인간이 각 움직임을 제어하며, 운영자에 의해 각 기계 액추에이터의 변화가 지정된다.
  2. 감독 제어(Supervisory): 인간이 일반적인 움직임이나 위치 변화를 지정하면 기계가 액추에이터의 구체적인 움직임을 결정한다.
  3. 작업 수준 자율성: 운영자는 작업만을 지정하고 로봇은 이를 완료하기 위해 스스로 관리한다.
  4. 완전 자율성: 기계가 인간의 상호 작용 없이 모든 작업을 생성하고 완료한다.

환경 상호 작용 및 내비게이션

[편집]
적절한 내비게이션과 장애물 회피를 제공하기 위해 레이더, GPS, 라이다가 모두 결합되었다 (2007년 DARPA 그랜드 챌린지를 위해 개발된 차량).

오늘날 가동 중인 로봇의 상당수가 인간에 의해 제어되거나 정적인 환경에서 작동하지만, 동적인 환경에서 자율적으로 작동할 수 있는 로봇에 대한 관심이 높아지고 있다. 이러한 로봇은 환경을 횡단하기 위해 지도화와 내비게이션 하드웨어 및 소프트웨어의 조합이 필요하다. 특히 예기치 않은 사건(예: 정지해 있지 않은 사람이나 다른 장애물)은 문제나 충돌을 일으킬 수 있다. ASIMO나 미녀 로봇(Meinü robot)과 같은 고도로 진보된 로봇은 특히 우수한 로봇 내비게이션 하드웨어와 소프트웨어를 갖추고 있다. 또한 자가 제어 자동차, 에른스트 딕만스의 무인 자동차, 그리고 DARPA 그랜드 챌린지 참가 차량들은 환경을 잘 감지하고 자율 로봇 군집에 의한 것을 포함하여 이 정보에 근거해 내비게이션 결정을 내릴 수 있다.[103] 이러한 로봇의 대부분은 웨이포인트(경로점)가 있는 GPS 내비게이션 장치를 사용하며, 웨이포인트 사이의 더 나은 내비게이션을 위해 라이다, 비디오 카메라관성 유도 시스템과 같은 다른 감각 데이터와 결합된 레이더를 사용한다.

인간과 로봇 상호 작용

[편집]

가정에서 일하는 로봇이 바닥 청소기를 넘어선 역할을 하기를 원한다면, 로봇의 감각 지능 수준은 몇 단계 더 발전해야 할 것이다. 로봇이 가정이나 기타 비산업 환경에서 효과적으로 작동하려면 작업을 수행하도록 지시받는 방식, 특히 멈추라는 지시를 받는 방식이 매우 중요할 것이다. 로봇과 상호 작용하는 사람들은 로봇공학에 대한 훈련을 거의 또는 전혀 받지 않았을 수 있으므로 모든 인터페이스는 매우 직관적이어야 한다. 공상과학 작가와 미래학자들은 보통 로봇이 결국 명령줄 인터페이스보다는 음성, 제스처, 표정을 통해 인간과 소통할 수 있을 것이라고 가정한다.[104]

사람들이 사회적으로 적절한 조건에서 로봇을 만날 수 있다면 로봇에 대한 사회적 수용도 높아질 가능성이 크다. 연구에 따르면 로봇을 바라보거나 만지거나 심지어 로봇과 상호 작용하는 것을 상상하는 것만으로도 상호 작용 전에 일부 사람들이 로봇에 대해 가졌던 부정적인 감정을 줄일 수 있다.[105] 그러나 기존의 부정적인 감정이 특히 강할 경우 로봇과 상호 작용하는 것이 로봇에 대한 부정적인 감정을 오히려 증가시킬 수도 있다.[105]

음성 인식

[편집]

인간에게서 나오는 연속적인 소리의 흐름을 실시간으로 해석하는 것은 주로 음성의 큰 가변성 때문에 컴퓨터에게 어려운 작업이다.[106] 같은 사람이 말하는 같은 단어라도 주변의 음향, 음량, 이전 단어, 화자가 감기에 걸렸는지 여부 등에 따라 다르게 들릴 수 있다. 화자가 다른 억양을 가졌을 때는 더욱 어려워진다.[107] 그럼에도 불구하고 1952년 데이비스(Davis), 비덜프(Biddulph), 발라셰크(Balashek)가 단일 사용자가 말하는 "10개의 숫자를 100% 정확도로 인식"하는 최초의 "음성 입력 시스템"을 설계한 이후 이 분야에서 큰 진전이 있었다.[108] 현재 최고의 시스템은 연속적이고 자연스러운 음성을 분당 최대 160단어까지 95%의 정확도로 인식할 수 있다.[109] AI의 도움으로 기계는 이제 사람의 목소리를 사용하여 만족감이나 분노와 같은 감정 인식을 할 수 있다.[110]

로봇의 음성

[편집]

로봇이 인간과 상호 작용하기 위해 목소리를 사용할 때 다른 장애물들이 존재한다. 사회적인 이유로 합성 음성은 최적의 의사소통 수단이 아님이 입증되었으며,[111] 다양한 기술을 통해 로봇 음성의 감정적 요소를 개발할 필요가 생겼다.[112][113] 이음 분기(diphonic branching)의 장점은 로봇이 투사하도록 프로그래밍된 감정이 음성 매체에 이미 미리 프로그래밍된 음성 테이프나 음소에 실릴 수 있다는 점이다. 가장 초기 사례 중 하나는 1974년 마이클 J. 프리먼이 개발한 리첨(Leachim)이라는 교육용 로봇이다.[114][115] 리첨은 디지털 메모리를 미리 녹음된 컴퓨터 디스크의 초보적인 구어체 음성으로 변환할 수 있었다.[116] 이 로봇은 뉴욕 브롱크스의 학생들을 가르치도록 프로그래밍되었다.[116]

표정

[편집]
키스멧은 다양한 표정을 지을 수 있다.

표정은 두 사람 사이의 대화 진행 상황에 대한 빠른 피드백을 제공할 수 있으며, 곧 인간과 로봇 사이에서도 마찬가지가 될 것이다. 로봇의 얼굴은 한슨 로보틱스(Hanson Robotics)에서 고무 얼굴 코팅의 탄성과 내장된 표면 하부 모터(서보) 덕분에 많은 수의 표정을 가능하게 하는 Frubber라는 탄성 중합체를 사용하여 제작되었다.[117] 코팅과 서보는 금속 두개골 위에 구축된다. 로봇은 상대방의 표정과 신체 언어로 판단하여 인간에게 어떻게 접근해야 할지 알아야 한다. 그 사람이 행복한지, 겁에 질렸는지, 아니면 이상해 보이는지에 따라 로봇에게 기대되는 상호 작용의 유형이 달라진다. 마찬가지로 키스멧이나 더 최근의 넥시(Nexi)와 같은 로봇은 다양한 표정을 지을 수 있어 인간과 의미 있는 사회적 교류를 할 수 있다.[118][119]

제스처

[편집]

미래에는 로봇 요리사에게 페이스트리 만드는 법을 설명하거나 로봇 경찰관에게 길을 묻는 모습을 상상할 수 있다. 두 경우 모두 손짓을 하는 것이 언어적 설명을 도울 것이다. 첫 번째 경우 로봇은 인간의 제스처를 인식하고 확인을 위해 그것을 반복할 수도 있다. 두 번째 경우 로봇 경찰관은 "길을 따라가다가 오른쪽으로 도세요"라고 제스처를 할 것이다. 제스처는 인간과 로봇 사이의 상호 작용의 일부가 될 가능성이 크다.[120] 인간의 손동작을 인식하기 위해 아주 많은 시스템이 개발되어 왔다.[121]

프록시믹스

[편집]

프록시믹스는 개인 공간에 대한 연구이며, HRI 시스템은 인간 상호 작용을 위해 이 개념을 모델링하고 활용하려고 할 수 있다.

인공 감정

[편집]

표정이나 제스처의 시퀀스로 구성된 인공 감정도 생성될 수 있다. 인공 감정을 가진 로봇의 예로는 AI 기반 피어 투 피어 상호 작용을 사용하는 아르메니아 IT 기업 Expper Technologies가 개발한 로봇 로빈(아르메니아어판)이 있다. 이 로봇의 주요 임무는 정서적 웰빙을 달성하는 것, 즉 스트레스와 불안을 극복하는 것이다. 로빈은 표정을 분석하고 맥락에 따라 감정을 나타내기 위해 자신의 얼굴을 사용하도록 훈련되었다. 이 로봇은 미국 병원의 아이들을 대상으로 테스트되었으며, 관찰 결과 로빈과 만나고 대화한 후 아이들의 식욕과 쾌활함이 증가한 것으로 나타났다.[122]

성격

[편집]

공상과학 소설 속의 많은 로봇은 성격을 가지고 있는데, 이는 미래의 상업용 로봇에서 바람직할 수도 있고 그렇지 않을 수도 있다.[123] 그럼에도 불구하고 연구자들은 성격을 가진 것처럼 보이는 로봇을 만들려고 시도하고 있다.[124][125] 즉, 그들은 기쁨, 슬픔 또는 공포일 수 있는 내부 상태를 전달하기 위해 소리, 표정 및 신체 언어를 사용한다. 상업적인 한 예로 여러 가지 겉보기 감정을 보여줄 수 있는 장난감 공룡 로봇 Pleo가 있다.[126]

응용

[편집]
세 대의 화성 탐사차 로봇과 함께 있는 로봇 공학자들 (왼쪽부터 반시계 방향으로): 화성 탐사 로버, 소저너, 화성 과학 실험실용 테스트 로버

로봇의 현재 및 잠재적 응용 분야는 다음과 같다.

연구

[편집]

로봇공학 연구의 많은 부분은 특정 산업 작업이 아니라, 새로운 로봇 유형에 대한 조사, 로봇을 생각하거나 설계하는 대안적인 방법, 그리고 로봇을 제조하는 새로운 방법에 집중되어 있다. MIT의 사이버플로라(cyberflora) 프로젝트와 같은 다른 연구들은 거의 전적으로 학술적이다.

로봇의 발전 수준을 설명하기 위해 "세대 로봇"이라는 용어를 사용할 수 있다. 이 용어는 카네기 멜런 대학교 로봇 연구소의 주요 연구 과학자인 한스 모라벡 교수가 로봇 기술의 가까운 미래 진화를 설명하면서 만든 것이다. 모라벡은 1997년에 1세대 로봇이 아마도 도마뱀에 필적하는 지적 능력을 가져야 하며 2010년경에 가용해질 것이라고 예측했다. 그러나 1세대 로봇은 학습 능력이 없을 것이기 때문에, 모라벡은 2세대 로봇이 1세대보다 개선되어 2020년경에 가용해질 것이며, 지능은 생쥐와 비슷할 것이라고 예측했다. 3세대 로봇은 원숭이에 필적하는 지능을 가져야 한다. 모라벡은 인간의 지능을 가진 4세대 로봇이 가능해지겠지만 2040~2050년 이전에는 실현되기 어려울 것이라고 예측했다.[142]

동역학 및 운동학

[편집]
외부 동영상
BB-8 Sphero 장난감의 작동 원리

움직임에 대한 연구는 운동학(kinematics)과 동역학(dynamics)으로 나눌 수 있다.[143] 정운동학(Direct kinematics)은 해당 관절 값이 알려졌을 때 말단 장치의 위치, 방향, 속도가속도를 계산하는 것을 말한다. 역운동학은 경로 계획에서 하듯이 주어진 말단 장치 값에 대해 필요한 관절 값을 계산하는 반대의 경우를 말한다. 운동학의 일부 특별한 측면에는 여유 자유도(동일한 움직임을 수행하는 다른 가능성) 처리, 충동 회피 및 특이점 회피가 포함된다. 운동학을 사용하여 모든 관련 위치, 속도 및 가속도가 계산되면, 동역학 분야의 방법을 사용하여 이러한 움직임에 대한 의 영향을 연구한다. 정동역학(Direct dynamics)은 가해진 힘이 알려졌을 때 로봇의 가속도를 계산하는 것을 말하며, 로봇의 컴퓨터 시뮬레이션에 사용된다. 역동역학(Inverse dynamics)은 규정된 말단 장치의 가속도를 생성하는 데 필요한 액추에이터 힘을 계산하는 것을 말한다. 이 정보는 로봇의 제어 알고리즘을 개선하는 데 사용될 수 있다.

위에서 언급한 각 분야에서 연구자들은 새로운 개념과 전략을 개발하고, 기존의 것을 개선하며, 이러한 분야 사이의 상호 작용을 개선하기 위해 노력한다. 이를 위해 "최적의" 성능 기준과 로봇의 설계, 구조 및 제어를 최적화하는 방법이 개발되고 구현되어야 한다.

오픈 소스 로봇공학

[편집]

오픈 소스 로봇공학 연구는 누구나 쉽게 재현할 수 있도록 로봇을 정의하는 표준과 설계 및 구축 방법을 모색한다. 연구에는 법적 및 기술적 정의, 비용을 절감하고 제작을 단순화하기 위한 대안적인 도구 및 재료 탐색, 설계들이 함께 작동하기 위한 인터페이스 및 표준 생성이 포함된다. 인간 사용성 연구는 또한 시각적, 텍스트 또는 비디오 지침을 통해 제작 과정을 가장 잘 문서화하는 방법을 조사한다.

진화 로봇공학

[편집]

진화 로봇공학진화 연산을 사용하여 로봇, 특히 신체 형태나 움직임 및 행동 제어기를 설계하는 방법론이다. 진화와 유사한 방식으로, 대규모 로봇 개체군이 어떤 방식으로 경쟁하게 하거나 작업을 수행하는 능력을 적합도 함수를 사용하여 측정한다. 성적이 가장 낮은 개체는 개체군에서 제거되고 승자의 행동을 기반으로 한 새로운 개체들로 교체된다. 시간이 지남에 따라 개체군이 개선되고 결국 만족스러운 로봇이 나타날 수 있다. 이는 연구자가 로봇을 직접 프로그래밍하지 않고도 발생한다. 연구자들은 더 나은 로봇을 만들고[144] 진화의 본질을 탐구하기 위해[145] 이 방법을 사용한다. 이 과정은 종종 많은 세대의 로봇을 시뮬레이션해야 하므로,[146] 이 기술은 전적으로 또는 대부분 로봇 시뮬레이터 소프트웨어 패키지를 사용한 시뮬레이션에서 실행된 다음, 진화된 알고리즘이 충분히 좋아지면 실제 로봇에서 테스트될 수 있다.[147] 국제 로봇 연맹(IFR)의 2023년 세계 로봇 보고서에 따르면, 2023년 말까지 약 4,281,585대의 산업용 로봇이 가동 중이었다.[148]

생체공학 및 생체모방

[편집]

생체공학생체모방은 동물의 생리와 이동 방식을 로봇 설계에 적용한다. 예를 들어, BionicKangaroo의 설계는 캉가루가 점프하는 방식을 기반으로 했다.

군집 로봇공학

[편집]

군집 로봇공학은 다수의 단순한 물리적 로봇들로 구성된 시스템으로서 여러 로봇의 조정을 다루는 접근 방식이다. 한 소식통에 따르면, "로봇 군집에서 로봇들의 집단적 행동은 로봇들 사이, 그리고 로봇과 그들이 활동하는 환경 사이의 국부적인 상호 작용에서 비롯된다."[103]

양자 컴퓨팅

[편집]

로봇공학 알고리즘이 디지털 컴퓨터보다 양자 컴퓨터에서 더 빨리 실행될 수 있는지에 대한 일부 연구가 진행되어 왔다. 이 분야는 양자 로봇공학(quantum robotics)이라 불린다.[149]

기타 연구 분야

[편집]

로봇공학 연구의 주요 장은 국제 컨퍼런스인 ICRA와 IROS이다.

인적 요인

[편집]

교육 및 훈련

[편집]
SCORBOT-ER 4u 교육용 로봇

로봇 엔지니어는 로봇을 설계하고, 유지 관리하며, 새로운 응용 분야를 개발하고, 로봇공학의 잠재력을 확장하기 위한 연구를 수행한다.[152] 로봇은 특히 미국의 일부 중학교와 고등학교에서 인기 있는 교육 도구가 되었으며,[153] 수많은 청소년 여름 캠프에서도 프로그래밍, AI 및 로봇공학에 대한 학생들의 관심을 높이고 있다.

고용

[편집]

로봇공학은 많은 현대 제조 환경에서 필수적인 요소이다. 공장에서 로봇 사용을 늘림에 따라 로봇 관련 일자리가 늘어나고 있으며 꾸준히 상승하는 것으로 관찰되었다.[154] 산업 분야의 로봇 채택은 생산성과 효율성을 높였으며 일반적으로 수혜자들에게 장기적인 투자로 간주된다. 한 연구에 따르면 미국의 일자리 중 47%가 "불특정 다수 년"에 걸쳐 자동화 위험에 처해 있다.[155] 이러한 주장은 AI가 아니라 사회 정책이 실업을 유발한다는 근거로 비판받기도 했다.[156] 2016년 이론 물리학자 스티븐 호킹가디언 기사에서 "공장 자동화는 이미 전통적인 제조 분야의 일자리를 격감시켰으며, 인공지능의 부상은 이러한 일자리 파괴를 중산층 깊숙이 확장하여 가장 배려하고 창의적이거나 감독적인 역할만 남길 가능성이 크다"고 언급했다.[157] 따라서 로봇공학의 부상은 종종 보편적 기본소득의 논거로 사용된다.

GlobalData의 2021년 9월 보고서에 따르면 로봇 산업 가치는 2020년에 450억 달러였으며, 2030년까지 연평균 성장률(CAGR) 29%로 성장하여 5,680억 달러에 달해 로봇 및 관련 산업의 일자리를 주도할 것이다.[158]

산업 안전 및 보건에 미치는 영향

[편집]

EU-OSHA가 작성한 토론 문서는 로봇공학의 확산이 산업 안전 보건(OSH)에 기회와 과제를 동시에 제시한다는 점을 강조한다.[159]

로봇공학의 광범위한 사용으로 인한 가장 큰 OSH 혜택은 건강에 해롭거나 위험한 환경에서 일하는 사람들을 대체하는 것이다. 우주, 국방, 보안 또는 원자력 산업뿐만 아니라 물류, 유지 보수 및 검사 분야에서 자율 로봇은 더럽고 지루하거나 안전하지 않은 작업을 수행하는 인간 노동자를 대체하여 위험한 요인 및 조건에 대한 노동자의 노출을 피하고 신체적, 인체공학적 및 심리사회적 위험을 줄이는 데 특히 유용하다. 예를 들어 로봇은 이미 반복적이고 단조로운 작업을 수행하거나 방사성 물질을 취급하거나 폭발성 대기에서 작업하는 데 사용되고 있다. 미래에는 농업, 건설, 운송, 의료, 소방 또는 청소 서비스와 같은 다양한 분야에서 더 많은 반복적이고 위험하거나 불쾌한 작업이 로봇에 의해 수행될 것이다.[160]

더욱이 당분간은 인간이 기계보다 더 적합한 특정 기술이 있으며, 문제는 인간과 로봇의 기술을 어떻게 가장 잘 조합하느냐이다. 로봇공학의 장점은 정밀도와 반복성을 갖춘 중작업을 포함하며, 인간의 장점은 창의성, 의사 결정, 유연성 및 적응력을 포함한다. 이러한 최적의 기술을 결합하려는 필요성은 협동로봇과 공통 작업 공간을 긴밀하게 공유하는 인간으로 이어졌고, "인간-로봇 합병"의 안전을 보장하기 위한 새로운 접근 방식과 표준의 개발을 가져왔다. 일부 유럽 국가들은 로봇공학을 국가 프로그램에 포함하고 생산성을 높이기 위해 로봇과 운영자 사이의 안전하고 유연한 협력을 촉진하려고 노력하고 있다. 예를 들어 독일 연방 산업 안전 보건 연구소(BAuA)는 "인간-로봇 협업"이라는 주제로 매년 워크숍을 개최한다.

미래에 로봇과 인간 사이의 협력은 더욱 다양해질 것이며 로봇은 자율성을 높이고 인간-로봇 협업은 완전히 새로운 형태에 도달할 것이다. 협동로봇과 함께 일하는 직원을 보호하기 위한 현재의 접근 방식과 기술 표준은 수정되어야 할 것이다.[161][162]

사용자 경험

[편집]

훌륭한 사용자 경험은 각 사용자 그룹의 요구, 경험, 행동, 언어 및 인지 능력 및 기타 요인을 예측한다. 그런 다음 이러한 통찰력을 사용하여 궁극적으로 유용하고 사용 가능한 제품이나 솔루션을 생산한다. 로봇의 경우 사용자 경험은 로봇의 의도된 작업과 환경을 이해하는 것에서 시작되며, 로봇이 인간의 활동 및 상호 작용에 미칠 수 있는 모든 사회적 영향을 고려한다.[163]

이는 의사소통을 촉각, 소리, 냄새 및 시각을 통해 감지되는 요소인 신호를 통한 정보의 전달로 정의한다.[164] 저자는 신호가 발신자와 수신자를 연결하며 신호 자체, 그것이 지칭하는 것, 그리고 해석자의 세 부분으로 구성된다고 명시한다. 신체 자세와 제스처, 표정, 손과 머리의 움직임은 모두 비언어적 행동과 의사소통의 일부이다. 로봇도 인간과 로봇의 상호 작용에 있어 예외는 아니다. 따라서 인간은 자신의 정의적인 특성을 전달하기 위해 언어적 및 비언어적 행동을 사용한다. 마찬가지로 소셜 로봇은 인간과 유사한 행동을 수행하기 위해 이러한 조율이 필요하다.

진로

[편집]

로봇공학은 주로 기계공학컴퓨터 과학을 결합한 학제적 분야이지만 전자공학 및 기타 과목에서도 지식을 가져온다. 로봇공학 분야에서 경력을 쌓는 일반적인 방법은 이러한 기존 과목 중 하나에서 학사 학위를 마친 후 로봇공학 석사 학위를 취득하는 것이다. 대학원 학위는 일반적으로 모든 기여 학문 분야에서 온 학생들이 합류하며, 각 분야의 관련 학부 수준 과목에 대한 익숙해지기 과정을 포함한 뒤, 이를 기반으로 한 순수 로봇공학 주제의 전문 연구를 포함한다. 학제적 주제로서 로봇공학 대학원 프로그램은 학생들이 함께 일하고 배우며 자신의 학부 전공에서 얻은 지식과 기술을 먼저 공유하는 데 특히 의존하는 경향이 있다.

로봇 산업의 경력도 같은 패턴을 따른다. 대부분의 로봇 공학자들은 이러한 기본 전공 후 로봇공학 대학원 학위를 취득하여 서로 협력할 수 있게 된 학제적 전문가 팀의 일원으로 일한다. 종사자들은 보통 스스로를 '로봇 공학자'라기보다는 로봇공학 분야에서 일하는 자기 기본 전공의 일원으로 식별하는 경향이 있다. 이러한 구조는 로봇공학 전체가 아닌 기본 전공 구성원에게 기술사(chartered engineer) 자격을 부여하는 일부 엔지니어링 직종의 특성에 의해 강화된다.

로봇공학 진로는 로봇이 더 많은 수동 및 지적 노동을 대체함에 따라 21세기에도 널리 성장할 것으로 예측된다. 로봇공학으로 인해 일자리를 잃은 일부 노동자들은 자신의 도메인 특화 지식과 기술을 사용하여 이러한 로봇을 제작하고 유지 관리하도록 재교육을 받기에 좋은 위치에 있을 수 있다.

같이 보기

[편집]

각주

[편집]
  1. German National Library. International classification system of the German National Library (GND). 2020년 8월 19일에 원본 문서에서 보존된 문서.
  2. Roboticist Definition & Synonyms - Robotics24 Glossary (영국 영어). 2022년 9월 26일. 2026년 2월 12일에 확인함.
  3. Origami-Inspired Robots Can Sense, Analyze and Act in Challenging Environments. UCLA. 2023년 4월 10일에 확인함.
  4. Raj, Aditi (2024년 8월 26일). AI & Robotics: The Role of AI in Robots. The Stellify. 2024년 8월 29일에 확인함.
  5. Dowling, Kevin. Power Sources for Small Robots (PDF). Carnegie Mellon University. 2020년 11월 25일에 원본 문서 (PDF)에서 보존된 문서. 2012년 5월 11일에 확인함.
  6. Roozing, Wesley; Li, Zhibin; Tsagarakis, Nikos; Caldwell, Darwin (2016). Design Optimisation and Control of Compliant Actuation Arrangements in Articulated Robots for Improved Energy Efficiency. IEEE Robotics and Automation Letters 1. 1110–1117쪽. Bibcode:2016IRAL....1.1110R. doi:10.1109/LRA.2016.2521926. S2CID 1940410.
  7. Pratt, G. A.; Williamson, M. M. (1995). Series elastic actuators. Proceedings 1995 IEEE/RSJ International Conference on Intelligent Robots and Systems. Human-Robot Interaction and Cooperative Robots 1. 399–406쪽. doi:10.1109/IROS.1995.525827. hdl:1721.1/36966. ISBN 0-8186-7108-4. S2CID 17120394.
  8. Furnémont, Raphaël; Mathijssen, Glenn; Verstraten, Tom; Lefeber, Dirk; Vanderborght, Bram (2016년 1월 27일). Bi-directional series-parallel elastic actuator and overlap of the actuation layers (PDF). Bioinspiration & Biomimetics 11. Bibcode:2016BiBi...11a6005F. doi:10.1088/1748-3190/11/1/016005. PMID 26813145. S2CID 37031990. 2022년 10월 1일에 원본 문서 (PDF)에서 보존된 문서. 2023년 3월 15일에 확인함.
  9. Pratt, Jerry E.; Krupp, Benjamin T. (2004). Series Elastic Actuators for legged robots. Gerhart, Grant R; Shoemaker, Chuck M; Gage, Douglas W (편집). Unmanned Ground Vehicle Technology VI 5422. 135–144쪽. doi:10.1117/12.548000. S2CID 16586246.
  10. Li, Zhibin; Tsagarakis, Nikos; Caldwell, Darwin (2013). Walking Pattern Generation for a Humanoid Robot with Compliant Joints. Autonomous Robots 35. 1–14쪽. doi:10.1007/s10514-013-9330-7. S2CID 624563.
  11. Colgate, J. Edward (1988). The control of dynamically interacting systems (학위논문). hdl:1721.1/14380.
  12. Calanca, Andrea; Muradore, Riccardo; Fiorini, Paolo (November 2017). Impedance control of series elastic actuators: Passivity and acceleration-based control. Mechatronics 47. 37–48쪽. doi:10.1016/j.mechatronics.2017.08.010.
  13. Tosun, Fatih Emre; Patoglu, Volkan (June 2020). Necessary and Sufficient Conditions for the Passivity of Impedance Rendering With Velocity-Sourced Series Elastic Actuation. IEEE Transactions on Robotics 36. 757–772쪽. Bibcode:2020ITRob..36..757T. doi:10.1109/TRO.2019.2962332. S2CID 212907787.
  14. www.imagesco.com, Images SI Inc -. Air Muscle actuators, going further, page 6. 2020년 11월 14일에 원본 문서에서 보존된 문서. 2010년 5월 24일에 확인함.
  15. Air Muscles. Shadow Robot. 2007년 9월 27일에 원본 문서에서 보존된 문서.
  16. Tondu, Bertrand (2012). Modelling of the McKibben artificial muscle: A review. Journal of Intelligent Material Systems and Structures 23. 225–253쪽. doi:10.1177/1045389X11435435. S2CID 136854390.
  17. TALKING ELECTRONICS Nitinol Page-1. Talkingelectronics.com. 2020년 1월 18일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  18. lf205, Hardware: Building a Linux-controlled walking robot. Ibiblio.org. 2001년 11월 1일. 2016년 3월 3일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  19. WW-EAP and Artificial Muscles. Eap.jpl.nasa.gov. 2017년 1월 20일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  20. Empa – a117-2-eap. Empa.ch. 2015년 9월 24일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  21. Electroactive Polymers (EAP) as Artificial Muscles (EPAM) for Robot Applications. Hizook. 2020년 8월 6일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  22. Piezo LEGS – -09-26. 2008년 1월 30일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  23. Squiggle Motors: Overview. 2007년 10월 7일에 원본 문서에서 보존된 문서. 2007년 10월 8일에 확인함.
  24. Nishibori 외 (2003). Robot Hand with Fingers Using Vibration-Type Ultrasonic Motors (Driving Characteristics). Journal of Robotics and Mechatronics 15. 588–595쪽. doi:10.20965/jrm.2003.p0588.
  25. Otake, Mihoko; Kagami, Yoshiharu; Ishikawa, Kohei; Inaba, Masayuki; Inoue, Hirochika (2001년 4월 6일). Wilson, Alan R.; Asanuma, Hiroshi (편집). Shape design of gel robots made of electroactive polymer gel. Smart Materials 4234. 194–202쪽. Bibcode:2001SPIE.4234..194O. doi:10.1117/12.424407. S2CID 30357330.
  26. Madden, John D. (2007년 11월 16일). Mobile Robots: Motor Challenges and Materials Solutions. Science 318. 1094–1097쪽. Bibcode:2007Sci...318.1094M. CiteSeerX 10.1.1.395.4635. doi:10.1126/science.1146351. PMID 18006737. S2CID 52827127.
  27. T.O.B.B. Mtoussaint.de. 2020년 7월 8일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  28. nBot, a two wheel balancing robot. Geology.heroy.smu.edu. 2021년 1월 26일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  29. ROBONAUT Activity Report. NASA. 2004. 2007년 8월 20일에 원본 문서에서 보존된 문서. 2007년 10월 20일에 확인함.
  30. Guizzo, Erico (2010년 4월 29일). A Robot That Balances on a Ball. IEEE Spectrum. 2023년 2월 10일에 원본 문서에서 보존된 문서. 2023년 3월 15일에 확인함.
  31. Carnegie Mellon Researchers Develop New Type of Mobile Robot That Balances and Moves on a Ball Instead of Legs or Wheels (보도 자료). Carnegie Mellon. 2006년 8월 9일. 2007년 6월 9일에 원본 문서에서 보존된 문서. 2007년 10월 20일에 확인함.
  32. Spherical Robot Can Climb Over Obstacles. BotJunkie. 2012년 3월 28일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  33. Rotundus. Rotundus.se. 2011년 8월 26일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  34. OrbSwarm Gets A Brain. BotJunkie. 2007년 7월 11일. 2012년 5월 16일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  35. Rolling Orbital Bluetooth Operated Thing. BotJunkie. 2012년 3월 28일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  36. Swarm. Orbswarm.com. 2021년 1월 26일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  37. Senior Design Projects | College of Engineering & Applied Science| University of Colorado at Boulder. Engineering.colorado.edu. 2008년 4월 30일. 2011년 7월 23일에 원본 문서에서 보존된 문서. 2010년 11월 27일에 확인함.
  38. JPL Robotics: System: Commercial Rovers. 2006년 6월 15일에 원본 문서에서 보존된 문서.
  39. AMBER Lab. 2020년 11월 25일에 원본 문서에서 보존된 문서. 2012년 1월 23일에 확인함.
  40. Achieving Stable Walking. Honda Worldwide. 2011년 11월 8일에 원본 문서에서 보존된 문서. 2007년 10월 22일에 확인함.
  41. Funny Walk. Pooter Geek. 2004년 12월 28일. 2011년 9월 28일에 원본 문서에서 보존된 문서. 2007년 10월 22일에 확인함.
  42. ASIMO's Pimp Shuffle. Popular Science. 2007년 1월 9일. 2011년 7월 24일에 원본 문서에서 보존된 문서. 2007년 10월 22일에 확인함.
  43. Robot Shows Prime Minister How to Loosen Up > > A drunk robot?. The Temple of VTEC – Honda and Acura Enthusiasts Online Forums. 2003년 8월 25일. 2020년 4월 30일에 원본 문서에서 보존된 문서.
  44. 3D One-Leg Hopper (1983–1984). MIT Leg Laboratory. 2018년 7월 25일에 원본 문서에서 보존된 문서. 2007년 10월 22일에 확인함.
  45. 3D Biped (1989–1995). MIT Leg Laboratory. 2011년 9월 26일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  46. Quadruped (1984–1987). MIT Leg Laboratory. 2011년 8월 23일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  47. MIT Leg Lab Robots – Main. 2020년 8월 7일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  48. About the Robots. Anybots. 2007년 9월 9일에 원본 문서에서 보존된 문서. 2007년 10월 23일에 확인함.
  49. Anything, Anytime, Anywhere. Anybots. 2007년 10월 27일에 원본 문서에서 보존된 문서. 2007년 10월 23일에 확인함.
  50. Dexter Jumps video. YouTube. 2007년 3월 1일. 2021년 10월 30일에 원본 문서에서 보존된 문서. 2007년 10월 23일에 확인함.
  51. Collins, Steve; Ruina, Andy; Tedrake, Russ; Wisse, Martijn (2005년 2월 18일). Efficient Bipedal Robots Based on Passive-Dynamic Walkers. Science 307. 1082–1085쪽. Bibcode:2005Sci...307.1082C. doi:10.1126/science.1107799. PMID 15718465. S2CID 1315227.
  52. Collins, S. H.; Ruina, A. (2005). A Bipedal Walking Robot with Efficient and Human-Like Gait. Proceedings of the 2005 IEEE International Conference on Robotics and Automation. 1983–1988쪽. doi:10.1109/ROBOT.2005.1570404. ISBN 0-7803-8914-X. S2CID 15145353.
  53. Testing the Limits (PDF). Boeing. 29쪽. 2018년 12월 15일에 원본 문서 (PDF)에서 보존된 문서. 2008년 4월 9일에 확인함.
  54. Zhang, Jun; Zhao, Ning; Qu, Feiyang (2022년 11월 15일). Bio-inspired flapping wing robots with foldable or deformable wings: a review. Bioinspiration & Biomimetics 18. 011002쪽. doi:10.1088/1748-3190/ac9ef5. ISSN 1748-3182. PMID 36317380. S2CID 253246037.
  55. 1 2 3 Shin, Won Dong; Park, Jaejun; Park, Hae-Won (2019년 9월 1일). Development and experiments of a bio-inspired robot with multi-mode in aerial and terrestrial locomotion. Bioinspiration & Biomimetics 14. 056009쪽. Bibcode:2019BiBi...14e6009S. doi:10.1088/1748-3190/ab2ab7. ISSN 1748-3182. PMID 31212268. S2CID 195066183.
  56. Ramezani, Alireza; Shi, Xichen; Chung, Soon-Jo; Hutchinson, Seth (May 2016). Bat Bot (B2), a biologically inspired flying machine. 2016 IEEE International Conference on Robotics and Automation (ICRA). Stockholm, Sweden: IEEE. 3219–3226쪽. doi:10.1109/ICRA.2016.7487491. ISBN 978-1-4673-8026-3. S2CID 8581750.
  57. 1 2 Daler, Ludovic; Mintchev, Stefano; Stefanini, Cesare; Floreano, Dario (2015년 1월 19일). A bioinspired multi-modal flying and walking robot. Bioinspiration & Biomimetics 10. Bibcode:2015BiBi...10a6005D. doi:10.1088/1748-3190/10/1/016005. ISSN 1748-3190. PMID 25599118. S2CID 11132948.
  58. 1 2 Kilian, Lukas; Shahid, Farzeen; Zhao, Jing-Shan; Nayeri, Christian Navid (2022년 7월 1일). Bioinspired morphing wings: mechanical design and wind tunnel experiments. Bioinspiration & Biomimetics 17. 046019쪽. Bibcode:2022BiBi...17d6019K. doi:10.1088/1748-3190/ac72e1. ISSN 1748-3182. PMID 35609562. S2CID 249045806.
  59. Savastano, E.; Perez-Sanchez, V.; Arrue, B.C.; Ollero, A. (July 2022). High-Performance Morphing Wing for Large-Scale Bio-Inspired Unmanned Aerial Vehicles. IEEE Robotics and Automation Letters 7. 8076–8083쪽. Bibcode:2022IRAL....7.8076S. doi:10.1109/LRA.2022.3185389. ISSN 2377-3766. S2CID 250008824.
  60. Grant, Daniel T.; Abdulrahim, Mujahid; Lind, Rick (June 2010). Flight Dynamics of a Morphing Aircraft Utilizing Independent Multiple-Joint Wing Sweep (영어). International Journal of Micro Air Vehicles 2. 91–106쪽. doi:10.1260/1756-8293.2.2.91. ISSN 1756-8293. S2CID 110577545.
  61. Phan, Hoang Vu; Park, Hoon Cheol (2020년 12월 4일). Mechanisms of collision recovery in flying beetles and flapping-wing robots (영어). Science 370. 1214–1219쪽. Bibcode:2020Sci...370.1214P. doi:10.1126/science.abd3285. ISSN 0036-8075. PMID 33273101. S2CID 227257247.
  62. Hu, Zheng; McCauley, Raymond; Schaeffer, Steve; Deng, Xinyan (May 2009). Aerodynamics of dragonfly flight and robotic design. 2009 IEEE International Conference on Robotics and Automation. 3061–3066쪽. doi:10.1109/ROBOT.2009.5152760. ISBN 978-1-4244-2788-8. S2CID 12291429.
  63. Balta, Miquel; Deb, Dipan; Taha, Haithem E (2021년 10월 26일). Flow visualization and force measurement of the clapping effect in bio-inspired flying robots. Bioinspiration & Biomimetics 16. 066020쪽. Bibcode:2021BiBi...16f6020B. doi:10.1088/1748-3190/ac2b00. ISSN 1748-3182. PMID 34584023. S2CID 238217893.
  64. Miller, Gavin. Introduction. snakerobots.com. 2011년 8월 17일에 원본 문서에서 보존된 문서. 2007년 10월 22일에 확인함.
  65. ACM-R5. 2011년 10월 11일에 원본 문서에서 보존된 문서.
  66. Swimming snake robot (commentary in Japanese). 2012년 2월 8일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  67. Commercialized Quadruped Walking Vehicle "TITAN VII". Hirose Fukushima Robotics Lab. 2007년 11월 6일에 원본 문서에서 보존된 문서. 2007년 10월 23일에 확인함.
  68. Pachal, Peter (2007년 1월 23일). Plen, the robot that skates across your desk. SCI FI Tech. 2007년 10월 11일에 원본 문서에서 보존된 문서.
  69. Capuchin - 유튜브
  70. Wallbot - 유튜브
  71. 스탠퍼드 대학교: Stickybot - 유튜브
  72. 1 2 Arreguin, Juan (2008). Automation and Robotics. Vienna, Austria: I-Tech and Publishing.
  73. Sfakiotakis, M.; Lane, D. M.; Davies, J. B. C. (April 1999). Review of fish swimming modes for aquatic locomotion. IEEE Journal of Oceanic Engineering 24. 237–252쪽. Bibcode:1999IJOE...24..237S. CiteSeerX 10.1.1.459.8614. doi:10.1109/48.757275. S2CID 17226211.
  74. Mason, Richard. What is the market for robot fish?. 2009년 7월 4일에 원본 문서에서 보존된 문서.
  75. Robotic fish powered by Gumstix PC and PIC. Human Centred Robotics Group at Essex University. 2011년 8월 14일에 원본 문서에서 보존된 문서. 2007년 10월 25일에 확인함.
  76. Juwarahawong, Witoon. Fish Robot. Institute of Field Robotics. 2007년 11월 4일에 원본 문서에서 보존된 문서. 2007년 10월 25일에 확인함.
  77. Festo – AquaPenguin. 2009년 4월 17일 YouTube 경유.
  78. High-Speed Robotic Fish (미국 영어). iSplash-Robotics. 2020년 3월 11일에 원본 문서에서 보존된 문서. 2017년 1월 7일에 확인함.
  79. iSplash-II: Realizing Fast Carangiform Swimming to Outperform a Real Fish (PDF). Robotics Group at Essex University. 2015년 9월 30일에 원본 문서 (PDF)에서 보존된 문서. 2015년 9월 29일에 확인함.
  80. iSplash-I: High Performance Swimming Motion of a Carangiform Robotic Fish with Full-Body Coordination (PDF). Robotics Group at Essex University. 2015년 9월 30일에 원본 문서 (PDF)에서 보존된 문서. 2015년 9월 29일에 확인함.
  81. Jaulin, Luc; Le Bars, Fabrice (February 2013). An Interval Approach for Stability Analysis: Application to Sailboat Robotics. IEEE Transactions on Robotics 29. 282–287쪽. Bibcode:2013ITRob..29..282J. CiteSeerX 10.1.1.711.7180. doi:10.1109/TRO.2012.2217794. S2CID 4977937.
  82. Mason, Matthew T. (2001). Mechanics of Robotic Manipulation. doi:10.7551/mitpress/4527.001.0001. ISBN 978-0-262-25662-9. S2CID 5260407.
  83. What is a robotic end-effector?. ATI Industrial Automation. 2007. 2020년 12월 17일에 원본 문서에서 보존된 문서. 2007년 10월 16일에 확인함.
  84. Crane, Carl D.; Joseph Duffy (1998). Kinematic Analysis of Robot Manipulators. Cambridge University Press. ISBN 978-0-521-57063-3. 2020년 4월 2일에 원본 문서에서 보존된 문서. 2007년 10월 16일에 확인함.
  85. G. J. Monkman, S. Hesse, R. Steinmann & H. Schunk (2007). Robot Grippers. Berlin, Germany: Wiley.
  86. Annotated Mythbusters: Episode 78: Ninja Myths – Walking on Water, Catching a Sword, Catching an Arrow. 2020년 11월 12일에 원본 문서에서 보존된 문서. 2010년 2월 13일에 확인함. (Discovery Channel's Mythbusters making mechanical gripper from the chain and metal wire)
  87. Robonaut hand. 2020년 2월 22일에 원본 문서에서 보존된 문서. 2011년 11월 21일에 확인함.
  88. Delft hand. TU Delft. 2012년 2월 3일에 원본 문서에서 보존된 문서. 2011년 11월 21일에 확인함.
  89. M & C. TU Delft ontwikkelt goedkope, voorzichtige robothand. TU Delft. 2017년 3월 13일에 원본 문서에서 보존된 문서. 2011년 11월 21일에 확인함.
  90. Tijsma, H. A.; Liefhebber, F.; Herder, J. L. (2005). Evaluation of New User Interface Features for the MANUS Robot Arm. 9th International Conference on Rehabilitation Robotics, 2005. ICORR 2005. 258–263쪽. doi:10.1109/ICORR.2005.1501097. ISBN 0-7803-9003-2. S2CID 36445389.
  91. Welcome (PDF). 2013년 5월 10일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  92. 1 2 3 Corke, Peter (2017). Robotics, Vision and Control (영국 영어). Springer Tracts in Advanced Robotics 118. doi:10.1007/978-3-319-54413-7. ISBN 978-3-319-54412-0. ISSN 1610-7438. 2022년 10월 20일에 원본 문서에서 보존된 문서. 2023년 3월 15일에 확인함.
  93. 1 2 3 Lee, C S. G.; Fu, K. S.; Gonzalez, Ralph (1987). Robotics: Control Sensing. Vis. (영어). McGraw-Hill. ISBN 978-0-07-026510-3. 2023년 3월 15일에 원본 문서에서 보존된 문서. 2023년 3월 15일에 확인함.
  94. 1 2 3 4 Short, Michael; Burn, Kevin (2011년 4월 1일). A generic controller architecture for intelligent robotic systems (영어). Robotics and Computer-Integrated Manufacturing 27. 292–305쪽. doi:10.1016/j.rcim.2010.07.013. ISSN 0736-5845.
  95. Ray, Partha Pratim (2016). Internet of Robotic Things: Concept, Technologies, and Challenges. IEEE Access 4. 9489–9500쪽. Bibcode:2016IEEEA...4.9489R. doi:10.1109/ACCESS.2017.2647747. ISSN 2169-3536. S2CID 9273802.
  96. 1 2 Burn, K.; Short, M.; Bicker, R. (July 2003). Adaptive and Nonlinear Fuzzy Force Control Techniques Applied to Robots Operating in Uncertain Environments. Journal of Robotic Systems 20. 391–400쪽. doi:10.1002/rob.10093. ISSN 0741-2223. 2022년 11월 26일에 원본 문서에서 보존된 문서. 2023년 3월 15일에 확인함.
  97. Burn, Kevin; Home, Geoffrey (2008년 5월 1일). Environment classification using Kohonen self-organizing maps. Expert Systems 25. 98–114쪽. doi:10.1111/j.1468-0394.2008.00441.x. ISSN 0266-4720. S2CID 33369232.
  98. Syntouch LLC: BioTac(R) Biomimetic Tactile Sensor Array. 2009년 10월 3일에 원본 문서에서 보존된 문서. 2009년 8월 10일에 확인함.
  99. Wettels, Nicholas; Santos, Veronica J.; Johansson, Roland S.; Loeb, Gerald E. (January 2008). Biomimetic Tactile Sensor Array. Advanced Robotics 22. 829–849쪽. doi:10.1163/156855308X314533. S2CID 4594917.
  100. What is The SmartHand?. SmartHand Project. 2015년 3월 3일에 원본 문서에서 보존된 문서. 2011년 2월 4일에 확인함.
  101. A Ping-Pong-Playing Terminator. Popular Science. 2021년 1월 22일에 원본 문서에서 보존된 문서. 2010년 12월 19일에 확인함.
  102. Synthiam Exosphere combines AI, human operators to train robots. The Robot Report. 2020년 10월 6일에 원본 문서에서 보존된 문서. 2020년 4월 29일에 확인함.
  103. 1 2 Kagan, Eugene; Ben-Gal, Irad (2015). Search and foraging:individual motion and swarm dynamics. Chapman and Hall/CRC. ISBN 978-1-4822-4210-2. 2023년 3월 15일에 원본 문서에서 보존된 문서. 2020년 8월 26일에 확인함.
  104. Banks, Jaime (2020). Optimus Primed: Media Cultivation of Robot Mental Models and Social Judgments. Frontiers in Robotics and AI 7. doi:10.3389/frobt.2020.00062. PMC 7805817. PMID 33501230.
  105. 1 2 Wullenkord, Ricarda; Fraune, Marlena R.; Eyssel, Friederike; Sabanovic, Selma (2016). Getting in Touch: How imagined, actual, and physical contact affect evaluations of robots. 2016 25th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN). 980–985쪽. doi:10.1109/ROMAN.2016.7745228. ISBN 978-1-5090-3929-6. S2CID 6305599.
  106. Norberto Pires, J. (December 2005). Robot-by-voice: experiments on commanding an industrial robot using the human voice. Industrial Robot 32. 505–511쪽. doi:10.1108/01439910510629244.
  107. Survey of the State of the Art in Human Language Technology: 1.2: Speech Recognition. 2007년 11월 11일에 원본 문서에서 보존된 문서.
  108. Fournier, Randolph Scott; Schmidt, B. June (1995). Voice input technology: Learning style and attitude toward its use. Delta Pi Epsilon Journal 37. 1–12쪽. ProQuest 1297783046. |id=에 templatestyles stripmarker가 있음(위치 1) (도움말)
  109. History of Speech & Voice Recognition and Transcription Software. Dragon Naturally Speaking. 2015년 8월 13일에 원본 문서에서 보존된 문서. 2007년 10월 27일에 확인함.
  110. Cheng Lin, Kuan; Huang, Tien-Chi; Hung, Jason C.; Yen, Neil Y.; Ju Chen, Szu (2013년 6월 7일). Facial emotion recognition towards affective computing-based learning. Library Hi Tech 31. 294–307쪽. doi:10.1108/07378831311329068.
  111. Walters, M. L.; Syrdal, D. S.; Koay, K. L.; Dautenhahn, K.; Te Boekhorst, R. (2008). Human approach distances to a mechanical-looking robot with different robot voice styles. RO-MAN 2008 – the 17th IEEE International Symposium on Robot and Human Interactive Communication. 707–712쪽. doi:10.1109/ROMAN.2008.4600750. ISBN 978-1-4244-2212-8. S2CID 8653718.
  112. Pauletto, Sandra; Bowles, Tristan (2010). Designing the emotional content of a robotic speech signal. Proceedings of the 5th Audio Mostly Conference on a Conference on Interaction with Sound – AM '10. 1–8쪽. doi:10.1145/1859799.1859804. ISBN 978-1-4503-0046-9. S2CID 30423778.
  113. Bowles, Tristan; Pauletto, Sandra (2010). Emotions in the Voice: Humanising a Robotic Voice (PDF). Proceedings of the 7th Sound and Music Computing Conference. Barcelona. 2023년 2월 10일에 원본 문서 (PDF)에서 보존된 문서. 2023년 3월 15일에 확인함.
  114. World of 2-XL: Leachim. www.2xlrobot.com. 2020년 7월 5일에 원본 문서에서 보존된 문서. 2019년 5월 28일에 확인함.
  115. The Boston Globe from Boston, Massachusetts on June 23, 1974 · 132 (영어). Newspapers.com. 1974년 6월 23일. 2020년 1월 10일에 원본 문서에서 보존된 문서. 2019년 5월 28일에 확인함.
  116. 1 2 A history of cybernetic animals and early robots (미국 영어). cyberneticzoo.com. 135쪽. 2020년 8월 6일에 원본 문서에서 보존된 문서. 2019년 5월 28일에 확인함.
  117. Frubber facial expressions. 2009년 2월 7일에 원본 문서에서 보존된 문서.
  118. Best Inventions of 2008 – TIME. Time. 2008년 10월 29일. 2008년 11월 2일에 원본 문서에서 보존된 문서 www.time.com 경유.
  119. Kismet: Robot at MIT's AI Lab Interacts With Humans. Sam Ogden. 2007년 10월 12일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  120. Waldherr, Stefan; Romero, Roseli; Thrun, Sebastian (2000년 9월 1일). A Gesture Based Interface for Human-Robot Interaction. Autonomous Robots 9. 151–173쪽. doi:10.1023/A:1008918401478. S2CID 1980239.
  121. Li, Ling Hua; Du, Ji Fang (December 2012). Visual Based Hand Gesture Recognition Systems. Applied Mechanics and Materials. 263-266. 2422–2425쪽. Bibcode:2012AMM...263.2422L. doi:10.4028/www.scientific.net/AMM.263-266.2422. S2CID 62744240.
  122. Armenian Robin the Robot to comfort kids at U.S. clinics starting July (미국 영어). Public Radio of Armenia. 2021년 5월 13일에 원본 문서에서 보존된 문서. 2021년 5월 13일에 확인함.
  123. Park, S.; Sharlin, Ehud; Kitamura, Y.; Lau, E. (2005년 4월 29일). Synthetic Personality in Robots and its Effect on Human-Robot Relationship (보고서). doi:10.11575/PRISM/31041. hdl:1880/45619.
  124. Robot Receptionist Dishes Directions and Attitude. NPR.org. 2020년 12월 1일에 원본 문서에서 보존된 문서. 2018년 4월 5일에 확인함.
  125. New Scientist: A good robot has personality but not looks (PDF). 2006년 9월 29일에 원본 문서 (PDF)에서 보존된 문서.
  126. Playtime with Pleo, your robotic dinosaur friend. 2008년 9월 25일. 2019년 1월 20일에 원본 문서에서 보존된 문서. 2014년 12월 14일에 확인함.
  127. Grift, Tony E. (2004). Agricultural Robotics. 일리노이 대학교 어바나-샴페인. 2007년 5월 4일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  128. Thomas, Jim (2017년 11월 1일). How corporate giants are automating the farm. New Internationalist. 2021년 1월 10일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  129. Pollock, Emily (2018년 6월 7일). Construction Robotics Industry Set to Double by 2023. engineering.com. 2020년 8월 7일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  130. Eyre, Michael (2014년 9월 12일). 'Boris' the robot can load up dishwasher. BBC 뉴스. 2018년 12월 3일에 확인함. |보존url=이 잘못됨: timestamp (도움말)
  131. Corner, Stuart (2017년 11월 23일). AI-driven robot makes 'perfect' flatbread. iothub.com.au. 2020년 11월 24일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  132. Technology Advanced Search. D&D Knowledge Management Information Tool. 2020년 8월 6일에 원본 문서에서 보존된 문서.
  133. Kolodny, Lore (2017년 7월 4일). Robots are coming to a burger joint near you. CNBC. 2020년 12월 5일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  134. Kirsner, Scott (2023년 1월 27일). Robots in the kitchen? Local engineers are making it a reality.. 보스턴 글로브.
  135. Robot density rises globally. Robotic Industries Association. 2018년 2월 8일. 2020년 11월 23일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  136. Pinto, Jim (2003년 10월 1일). Fully automated factories approach reality. Automation World. 2011년 10월 1일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  137. Hunt, V. Daniel (1985). Smart Robots. Smart Robots: A Handbook of Intelligent Robotic Systems. Chapman and Hall. 141쪽. ISBN 978-1-4613-2533-8. 2023년 3월 15일에 원본 문서에서 보존된 문서. 2018년 12월 4일에 확인함.
  138. Parkhurst, Rich (2025년 12월 12일). Robotic Palletizing Stacks Up to Productivity and Profitability (영어). Quality Magazine. 2026년 2월 10일에 확인함.
  139. Robot for opening and emptying boxes (영국 영어). R&D Technology. 2026년 2월 10일에 확인함.
  140. van de Loo, Joost (2022년 9월 23일). Shelf-stocking robots with independent movement. Robohub. 2026년 2월 10일에 확인함.
  141. Arámbula Cosío, F.; Hibberd, R. D.; Davies, B. L. (July 1997). Electromagnetic compatibility aspects of active robotic systems for surgery: the robotic prostatectomy experience (영어). Medical and Biological Engineering and Computing 35. 436–440쪽. doi:10.1007/BF02534105. ISSN 1741-0444. PMID 9327627. S2CID 21479700.
  142. NOVA conversation with Professor Moravec, October 1997. NOVA Online 보관됨 2017-08-02 - 웨이백 머신
  143. Agarwal, P. K. Elements of Physics XI. Rastogi Publications. 2쪽. ISBN 978-81-7133-911-2.
  144. Sandhana, Lakshmi (2002년 9월 5일). A Theory of Evolution, for Robots. Wired. 2014년 3월 29일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  145. Experimental Evolution In Robots Probes The Emergence Of Biological Communication. Science Daily. 2007년 2월 24일. 2018년 11월 16일에 원본 문서에서 보존된 문서. 2007년 10월 28일에 확인함.
  146. Žlajpah, Leon (2008년 12월 15일). Simulation in robotics. Mathematics and Computers in Simulation 79. 879–897쪽. doi:10.1016/j.matcom.2008.02.017.
  147. Evolution trains robot teams TRN 051904. Technology Research News. 2016년 6월 23일에 원본 문서에서 보존된 문서. 2009년 1월 22일에 확인함.
  148. Müller, Christopher (2023). World Robotics 2023 – Industrial Robots. Frankfurt, Germany: IFR Statistical Department, VDMA Services GmbH.
  149. Tandon, Prateek (2017). Quantum Robotics. Morgan & Claypool Publishers. ISBN 978-1-62705-913-8.
  150. Dragani, Rachelle (2018년 11월 8일). Can a robot make you a 'superworker'?. Verizon Communications. 2020년 8월 6일에 원본 문서에서 보존된 문서. 2018년 12월 3일에 확인함.
  151. Robotics. American Elements. 2023년 4월 10일에 확인함.
  152. Career: Robotics Engineer. Princeton Review. 2012. 2015년 1월 21일에 원본 문서에서 보존된 문서. 2012년 1월 27일에 확인함.
  153. Saad, Ashraf; Kroutil, Ryan (2012). Hands-on Learning of Programming Concepts Using Robotics for Middle and High School Students. Proceedings of the 50th Annual Southeast Regional Conference of the Association for Computing Machinery. ACM. 361–362쪽. doi:10.1145/2184512.2184605.
  154. Toy, Tommy (2011년 6월 29일). Outlook for robotics and Automation for 2011 and beyond are excellent says expert. PBT Consulting. 2012년 1월 27일에 원본 문서에서 보존된 문서. 2012년 1월 27일에 확인함.
  155. Frey, Carl Benedikt; Osborne, Michael A. (January 2017). The future of employment: How susceptible are jobs to computerisation?. Technological Forecasting and Social Change 114. 254–280쪽. CiteSeerX 10.1.1.395.416. doi:10.1016/j.techfore.2016.08.019.
  156. McGaughey, Ewan (2019년 10월 16일). Will robots automate your job away? Full employment, basic income, and economic democracy. LawArXiv Papers. doi:10.31228/osf.io/udbj8. S2CID 243172487. SSRN 3044448.
  157. Hawking, Stephen (2016년 1월 1일). This is the most dangerous time for our planet. The Guardian. 2021년 1월 31일에 원본 문서에서 보존된 문서. 2019년 11월 22일에 확인함.
  158. Robotics – Thematic Research. GlobalData. 2021년 9월 28일에 원본 문서에서 보존된 문서. 2021년 9월 22일에 확인함.
  159. Focal Points Seminar on review articles in the future of work – Safety and health at work – EU-OSHA. osha.europa.eu. 2020년 1월 25일에 원본 문서에서 보존된 문서. 2016년 4월 19일에 확인함.
  160. Robotics: Redefining crime prevention, public safety and security. SourceSecurity.com. 2017년 10월 9일에 원본 문서에서 보존된 문서. 2016년 9월 16일에 확인함.
  161. Draft Standard for Intelligent Assist Devices — Personnel Safety Requirements (PDF). 2020년 11월 25일에 원본 문서 (PDF)에서 보존된 문서. 2016년 6월 1일에 확인함.
  162. ISO/TS 15066:2016 – Robots and robotic devices – Collaborative robots. 2016년 3월 8일. 2016년 10월 10일에 원본 문서에서 보존된 문서. 2016년 6월 1일에 확인함.
  163. Brogårdh, Torgny (January 2007). Present and future robot control development—An industrial perspective. Annual Reviews in Control 31. 69–79쪽. doi:10.1016/j.arcontrol.2007.01.002. ISSN 1367-5788.
  164. Wang, Tian-Miao; Tao, Yong; Liu, Hui (2018년 4월 17일). Current Researches and Future Development Trend of Intelligent Robot: A Review. International Journal of Automation and Computing 15. 525–546쪽. doi:10.1007/s11633-018-1115-1. ISSN 1476-8186. S2CID 126037910.
내용주
  1. 미국 에너지부가 개발한 한 데이터베이스에는 약 500개의 기존 로봇 기술에 대한 정보가 담겨 있다.[132]

외부 링크

[편집]